AI 过度自信反映了人脑状况
        基于人工智能 (AI) 的代理、聊天机器人和其他工具越来越多地被许多人用于日常生活中。 所谓的基于大型语言模型 (LLM) 的代理,例如 ChatGPT 和 Llama,在它们形成的响应中已经变得非常流利,但经常提供令人信服但不正确的信息。 东京大学的研究人员将这个问题与一种被称为失语症的人类语言障碍相提并论,在这种疾病中,患者可能说得很流利,但变得毫无意义或难以理解的陈述。 这种相似性可能指向更好的失语症诊断形式,甚至为寻求改进基于 LLM 的药物的 AI 工程师提供见解。

         这篇文章是由一个人写的,但文本生成 AI 的使用在许多领域都在增加。 随着越来越多的人开始使用和依赖这些工具,确保这些工具向用户提供正确和连贯的响应和信息的需求越来越大。 多熟悉的工具,包括 ChatGPT 和其他工具,似乎对它们提供的任何内容都非常流利。 但是他们的回应并不总是可靠的,因为他们制作了大量本质上是虚构的内容。 如果用户对相关主题领域没有足够的了解,他们很容易假设这些信息是正确的,特别是考虑到 ChatGPT 和其他人表现出的高度信心。

         “你不能不注意到一些 AI 系统是如何显得清晰的同时仍然经常产生重大错误,“东京大学国际神经智能研究中心 (WPI-IRCN) 的 Takamitsu Watanabe 教授说。 “但让我和我的团队感到震惊的是,这种行为与韦尼克失语症患者的行为相似,这些人能说一口流利,但并不总是有太大意义。 这促使我们想知道这些 AI 系统的内部机制是否可能与受失语症,如果是这样,可能的影响是什么。

         为了探索这个想法,该团队使用了一种称为能量景观分析的方法,这种技术最初是由物理学家开发的,旨在可视化磁性金属中的能量状态,但最近被应用于神经科学。 他们检查了不同类型失语症患者的静息大脑活动模式,并将它们与几个公开可用的 LLM 的内部数据进行了比较。 在他们的分析中,该团队确实发现了一些惊人的相似之处。 在这些 AI 模型中移动和纵数字信息或信号的方式与某些类型失语症(包括 Wernicke 失语症)患者大脑中某些大脑信号的行为方式非常匹配。

        :“你可以把能源景观想象成一个上面有球的表面。 当有曲线时,球可能会滚下来并停下来,但是当曲线很浅时,球可能会无序地滚动,“渡边说。 “在失语症中,球代表人的大脑状态。 在 LLM 中,它表示基于其指令和内部数据集的模型中的连续信号模式。

        :这项研究有几个含义。 对于神经科学来说,它提供了一种可能的新方法,可以根据大脑内部活动而不仅仅是外部症状来分类和监测失语症等疾病。 对于 AI,它可以带来更好的诊断工具,帮助工程师从内到外改进 AI 系统的架构。不过,尽管研究人员发现了相似之处,但他们敦促谨慎行事,不要做出太多假设。

         “我们并不是说聊天机器人会损害大脑,”渡边说。 “但他们可能被锁定在一种僵化的内部模式中,这限制了他们利用储存的知识的灵活性,就像接受性失语症一样。 未来的模型是否能够克服这一限制还有待观察,但了解这些内部相似之处可能是迈向更智能、更智能的第一步值得信赖的 AI 也是如此。