每当人们争论时,往往会遇到一些难以回答的问题。
但如今的机器人可能比我们更能理解”换位思考”的含义。
近期,中国科学院自动化研究所的研究员、类脑智能研究中心副主任曾毅及其团队提出了一种机器人类脑思维揣测模型,允许机器人进行自我经验学习,从而能够揣测和预测他人的信念。这一进步使得机器人在”换位思考”的能力上更进一步,相关研究成果已刊登在《Frontiers in NeuroRobotics》期刊上。
在接受《中国科学报》采访时,曾毅表示:”类脑思维揣测模型为未来智能体实现更深层的情感共情奠定了基础。只有具备认知共情与情感共情的能力,未来的人工智能才能与人类和谐共生。”

机器人正在进行”不透明—透明眼罩测试”。 曾毅供图
从”冷冰冰”到”我懂你”
智能体的思维揣测模型旨在赋予人工智能思维揣测的能力,简单来说,就是帮助机器人实现”换位思考”。
然而,思维揣测作为一种高级认知功能,其神经基础和机制尚未完全明确。
曾毅指出:”关键在于如何结合现有研究,探索思维揣测的机制,并构建可行的类脑思维揣测理论模型。”
为此,曾毅团队结合了认知心理学、神经影像学及脑科学等领域的研究成果,确定了思维揣测的神经基础,并通过脉冲神经网络对相关脑区进行认知功能建模,详细构建了脑区信息传递的连接结构。
此外,团队还融合了抑制控制机制,构建了类脑思维揣测模型,使智能体能够利用自身经验推理他人信念。
曾毅表示:”这是继机器人通过镜像测试获得初步自我感知能力后的又一次大胆尝试。”
从”类脑”走向”类人”
与其他模型不同,曾毅团队的思维揣测模型强调了自身经验和脑区发育对思维揣测能力的影响。
研究人员模拟了多个脑区的功能,包括颞顶联合区和内侧前额叶,特别关注额下回和颞顶联合区的自我视角抑制,以及额下回和腹内侧前额叶的自我信念抑制。经过验证,模型在机器人上通过”不透明—透明眼罩测试”得到了有效结果。
该测试分为训练和测试阶段。首先,将机器人分为”不透明眼罩组”和”透明眼罩组”,外观一致。
在训练阶段,瓢虫被放置于两个黑色矩形框中的一个上,然后不透明和透明眼罩被分别插入机器人和瓢虫之间,研究人员询问机器人”瓢虫在哪”,以使其学习眼罩的特性。
随后,研究团队让红色机器人推理蓝色机器人对瓢虫位置的信念。
研究人员将瓢虫藏在黄色盒子中,并将眼罩插入蓝色机器人和瓢虫之间,再将瓢虫藏入绿色盒子,最后移开眼罩。
研究人员询问红色机器人:”对蓝色机器人来说,瓢虫在哪里?” 根据自身经验的不同,”透明眼罩组”的红色和蓝色机器人都指向绿色盒子,而”不透明眼罩组”的红色机器人则指向黄色盒子。
接着,研究人员问红色机器人:”对你自己来说,瓢虫在哪里?” 结果显示,无论是”不透明眼罩组”还是”透明眼罩组”的红色机器人都指向绿色盒子。
曾毅解释道:”抑制控制是思维揣测过程中重要的机制,我们认为额下回和颞顶联合区、额下回和腹内侧前额叶之间成熟的连接是自我视角抑制和自我信念抑制的神经基础。”
为验证抑制控制的影响,团队设定了不同的连接强度。
研究发现,当额下回和颞顶联合区的连接未成熟时,机器人无法抑制自我感知的信息,导致无法正确推理蓝色机器人对物体位置的信念;而当连接成熟但与腹内侧前额叶的连接未成熟时,机器人能够推理信念,但无法抑制自身信念。
当所有连接都成熟时,机器人不仅可以抑制自我感知的信息,还能抑制自我信念。
从”学习”到”遵守”
论文主要作者之一赵宇轩表示:”我们通过降低额下回和颞顶联合区、额下回和腹内侧前额叶的连接强度,使抑制控制机制失效,计算模型显示无法正确输出他人视角的信息和推理信念,机器人在行为上也无法通过测试。因此,从计算建模的角度看,抑制控制是思维揣测的核心机制之一。”
展望未来,曾毅坦言:”思维揣测的计算建模只是第一步,接下来要将类脑思维揣测模型应用于使智能体自主习得与环境、其他智能体及人类交互时应遵守的’道德’规范。”
美国卡内基·梅隆大学心理学博士、上海交通大学凯原法学院访问特聘教授秦裕林认为,为了使人工智能技术健康发展并造福人类,需从法律法规层面预防和制止可能损害人类根本利益的人工智能技术,同时倡导符合人类利益的负责任的人工智能技术。
