大脑如何解决复杂问题
人脑非常擅长解决复杂的问题。 其中一个原因是人类可以将问题分解为易于管理的子任务,这些子任务一次可以轻松解决。 这使我们能够完成一项日常任务,例如出去喝咖啡,将其分为几个步骤:走出我们的办公楼,导航到咖啡店,然后到达那里,获取咖啡。 这个策略可以帮助我们轻松处理障碍。 例如,如果电梯坏了,我们可以修改我们的走出大楼,不改变其他步骤。 虽然有大量行为证据表明人类在这些复杂任务中的技能,但很难设计出实验场景来精确描述我们用来解决问题的计算策略。 在一项新的研究中,麻省理工学院的研究人员成功地模拟了人们如何部署不同的决策策略来解决复杂的任务——在这种情况下,预测当球被隐藏时,球将穿过迷宫。 人脑无法完美地执行这项任务,因为不可能并行跟踪所有可能的轨迹,但研究人员发现,人们可以通过灵活地采用两种称为分层推理和反事实推理的策略来表现得相当好。 研究人员还能够确定人们在什么情况下选择这些策略。 “什么人类能够做的是将迷宫分解成小节,然后使用相对简单的算法解决每个步骤。 实际上,当我们没有办法解决复杂问题时,我们会通过使用更简单的启发式方法来完成工作,“大脑和认知科学教授、麻省理工学院麦戈文脑研究所成员、霍华德休斯医学研究所研究员、《 研究。 Mahdi Ramadan 博士'24 和研究生 Cheng Tang 是这篇论文的主要作者,该论文今天发表在《自然人类行为》上。 Nicholas Watters 博士 '25 也是合著者。 理性策略 当人类执行具有明确正确答案的简单任务时,例如对对象进行分类,他们的表现非常出色。 当任务变得更加复杂时,例如计划去您最喜欢的咖啡馆旅行,可能不再有一个明显更好的答案。 而且,在每一步中,都有很多事情可能会出错。 在这些情况下,人类非常擅长制定能够完成任务的解决方案,即使它可能不是最佳解决方案。 这些解决方案通常涉及解决问题的捷径或启发式方法。 人类通常依赖的两个突出的启发式方法是分层推理和反事实推理。 分层推理是将问题分解为多个层次的过程,从一般开始,一直到具体。 反事实推理涉及想象一下如果你做出不同的选择会发生什么。 虽然这些策略是众所周知的,但科学家们对大脑如何决定在特定情况下使用哪一种知之甚少。 “这确实是认知科学中的一个大问题:我们如何以次优的方式解决问题,通过提出巧妙的启发式方法,我们将这些启发式方法链接在一起,最终使我们越来越接近,直到我们解决问题?” “贾扎耶里说。 为了克服这个问题,Jazayeri 和他的同事们设计了一项任务,该任务足够复杂,需要这些策略,但又足够简单,可以衡量结果和计算结果。 该任务要求参与者预测球在迷宫中穿过四种可能轨迹时的路径。 一旦球进入迷宫,人们就看不到它走哪条路。 在迷宫的两个路口,当球到达该点时,他们会听到听觉提示。 预测球的路径是一个人类无法完美准确地解决的任务。 “这需要你在脑海中进行四个并行模拟,而没有人能做到这一点。 这类似于一次进行四次对话,“Jazayeri 说。 “这项任务使我们能够利用人类使用的这套算法,因为你无法以最佳方式解决它。” 研究人员招募了大约 150 名人类志愿者参与这项研究。 在每个受试者开始球跟踪任务之前,研究人员评估了他们估计几百毫秒的时间跨度的准确度,大约是球沿着迷宫的一个臂移动所需的时间长度。 对于每个参与者,研究人员创建了计算模型,这些模型可以预测如果该参与者运行并行模拟、单独使用分层推理、单独使用反事实推理或两种推理的组合,该参与者将看到的错误模式(根据他们的计时技能)策略。 研究人员将受试者的表现与模型的预测进行了比较,发现对于每个受试者,他们的表现与使用分层推理但有时会切换到反事实推理的模型最密切相关。 这表明,人们没有跟踪球可能经过的所有可能路径,而是将任务分解了。 首先,他们选择他们认为球首先转动的方向(左或右)交界处,并在球前往下一个转弯时继续跟踪球。 如果他们听到的下一个声音的时间与他们选择的路径不兼容,他们会回头修改他们的第一个预测——但只是部分时间。 切换回另一边,代表着向反事实推理的转变,需要人们回顾他们对听到的音调的记忆。 然而,事实证明,这些记忆并不总是可靠的,研究人员发现人们根据他们认为自己的记忆力有多好来决定是否回去。 “人们在一定程度上依赖反事实,以至于它有帮助,”Jazayeri 说。 “当他们做反事实时,会遭受重大绩效损失的人会避免这样做。 但是,如果你是一个非常擅长从最近的过去检索信息的人,你可能会回到另一边。 人类局限性 为了进一步验证他们的结果,研究人员创建了一个机器学习神经网络并对其进行训练以完成任务。 在此任务中训练的机器学习模型将准确跟踪球的路径并每次都做出正确的预测,除非研究人员对其性能施加限制。 当研究人员添加类似于人类面临的认知限制时,他们发现该模型改变了其策略。 当他们消除了模型遵循所有可能轨迹的能力时,它开始使用像人类一样采用分层和反事实策略。 如果研究人员降低了模型的记忆回忆能力,那么只有当它认为自己的回忆足以得到正确答案时,它才会开始切换到分层模式——就像人类一样。 “我们发现,当我们对网络施加我们在人类行为中发现的计算限制时,网络会模仿人类行为,”Jazayeri 说。 “这实际上是在说,人类在以下约束下理性地行动他们必须在 UNDER 下运作。 通过略微改变模型中编程的记忆障碍量,研究人员还看到了策略切换似乎是逐渐发生的迹象,而不是在一个明显的分界点。 他们现在正在进行进一步的研究,以试图确定当这些策略转变发生时大脑中发生了什么。 该研究由 Lisa K 资助。 Yang ICoN 奖学金、麦戈文研究所之友学生奖学金、A美国国家科学基金会研究生研究奖学金、西蒙斯基金会、霍华德休斯医学研究所和麦戈文研究所。