AI符合游戏理论:社交场景
大型语言模型 (LLM) —— ChatGPT 等工具背后的高级人工智能 —— 越来越多地融入日常生活,协助完成撰写电子邮件、回答问题甚至支持医疗保健决策等任务。 但是这些模型能否像人类一样与他人合作呢? 他们能否理解社交场合、做出妥协或建立信任? 亥姆霍兹慕尼黑大学、马克斯·普朗克生物控制论研究所和大学的研究人员进行的一项新研究的 Tübingen 报告显示,虽然当今的 AI 很智能,但它在社交智能方面仍有很多需要学习的地方。 玩游戏以了解 AI 行为 为了了解 LLM 在社交场合的行为,研究人员应用了行为博弈论——一种通常用于研究人们如何合作、竞争和做出决策的方法。 该团队拥有包括 GPT-4 在内的各种 AI 模型,参与了一系列旨在模拟社交互动和评估公平性等关键因素的游戏。信任和合作。 研究人员发现,GPT-4 在需要逻辑推理的游戏中表现出色——尤其是在优先考虑自身利益时。 然而,它在需要团队合作和协调的任务上苦苦挣扎,在这些领域往往达不到要求。 “在某些情况下,AI 似乎对自身利益来说几乎过于理性,”博士说。 该研究的主要作者 Eric Schulz。 “它可以立即发现威胁或自私的举动,并以报复作为回应,但它很挣扎看到信任、合作和妥协的更大图景。 教 AI 进行社会思考 为了鼓励更具社交意识的行为,研究人员实施了一种简单的方法:他们促使 AI 在做出自己的决定之前考虑其他玩家的观点。 这种技术称为社交思维链 (SCoT),带来了显着的改进。 借助 SCoT,AI 变得更加合作、适应性更强,并且更有效地实现相互目标有益的结果 -- 即使是在与真实的人类玩家互动时。 “一旦我们推动模型进行社交推理,它就开始以更人性化的方式行事,”该研究的第一作者 Elif Akata 说。 “有趣的是,人类参与者通常无法判断他们正在与 AI 玩游戏。” 在健康和患者护理中的应用 这项研究的意义远远超出了博弈论。 这些发现为开发更多以人为本的 AI 奠定了基础系统,尤其是在社会认知至关重要的医疗保健环境中。 在心理健康、慢性病管理和老年护理等领域,有效的支持不仅取决于准确性和信息传递,还取决于 AI 建立信任、解释社交线索和促进合作的能力。 通过建模和完善这些社会动态,该研究为更具社交智能的 AI 铺平了道路,对健康研究和人类 AI 具有重大影响互动。 “一种可以鼓励患者继续服药、支持某人度过焦虑或引导关于艰难选择的对话的人工智能,”Elif Akata 说。 “这就是这种研究的发展方向。”