要构建更好的 AI 助手,首先要对人类的非理性行为进行建模

AI在线 · 2024-04-22 19:30 · 381浏览

要构建能够与人类有效协作的人工智能系统,首先要有一个好的人类行为模型。但人类在做决定时往往表现得不太理想。

这种非理性尤其难以建模,通常归结为计算约束。人类不可能花几十年时间思考一个问题的理想解决方案。

麻省理工学院(MIT)和华盛顿大学(University of Washington)的研究人员开发了一种方法来模拟智能体(无论是人类还是机器)的行为,该方法解释了可能阻碍智能体解决问题能力的未知计算约束。

他们的模型可以通过查看代理先前操作的一些痕迹来自动推断代理的计算约束。结果,即智能体所谓的“推理预算”,可用于预测该智能体的未来行为。

在一篇新论文中,研究人员展示了如何使用他们的方法从先前的路线中推断某人的导航目标,并预测棋手在国际象棋比赛中的后续行动。他们的技术与另一种流行的建模此类决策的方法相匹配或优于此。

最终,这项工作可以帮助科学家向人工智能系统传授人类的行为方式,从而使这些系统能够更好地响应人类合作者。能够理解人类的行为,然后从该行为中推断出他们的目标,可以使人工智能助手更加有用,电气工程和计算机科学(EECS)研究生Athul Paul Jacob说,他是一篇关于这项技术的论文的主要作者。

“如果我们知道人类即将犯错,在看到他们以前的行为方式后,人工智能代理可以介入并提供更好的方法来做到这一点。或者智能体可以适应其人类协作者的弱点。能够对人类行为进行建模是构建能够真正帮助人类的人工智能代理的重要一步,“他说。

雅各布与华盛顿大学助理教授阿布舍克·古普塔(Abhishek Gupta)和资深作者雅各布·安德烈亚斯(Jacob Andreas)共同撰写了这篇论文,雅各布·安德烈亚斯(Jacob Andreas)是EECS副教授,也是计算机科学和人工智能实验室(CSAIL)的成员。该研究将在学习表征国际会议上发表。

建模行为

几十年来,研究人员一直在建立人类行为的计算模型。许多先前的方法试图通过向模型添加噪声来解释次优决策。模型可能让代理在 95% 的时间内做出正确的选择,而不是代理总是选择正确的选项。

然而,这些方法可能无法捕捉到这样一个事实,即人类并不总是以同样的方式表现得不理想。

麻省理工学院的其他人也研究了更有效的方法,在面对次优决策时计划和推断目标。

为了建立他们的模型,雅各布和他的合作者从之前对国际象棋选手的研究中汲取了灵感。他们注意到,在做出简单的动作时,球员在行动之前花更少的时间思考,而且在具有挑战性的比赛中,较强的玩家往往比较弱的玩家花更多的时间进行计划。

“归根结底,我们看到计划的深度,或者一个人思考问题的时间,是人类行为方式的一个非常好的代表,”雅各布说。

他们建立了一个框架,可以从先前的行动中推断出智能体的规划深度,并使用该信息对智能体的决策过程进行建模。

他们方法的第一步涉及在一定时间内运行算法来解决正在研究的问题。例如,如果他们正在研究国际象棋比赛,他们可能会让国际象棋算法运行一定数量的步骤。最后,研究人员可以看到算法在每一步做出的决定。

他们的模型将这些决策与解决相同问题的代理的行为进行比较。它将使代理的决策与算法的决策保持一致,并确定代理停止计划的步骤。

由此,模型可以确定代理的推理预算,或者该代理将为此问题计划多长时间。它可以使用推理预算来预测该代理在解决类似问题时的反应。

可解释的解决方案

这种方法可能非常有效,因为研究人员可以访问问题解决算法做出的全套决策,而无需做任何额外的工作。该框架也可以应用于可以用特定类别的算法解决的任何问题。

“对我来说,最引人注目的是,这个推理预算非常可解释。它说更棘手的问题需要更多的计划,或者成为一个强大的参与者意味着计划更长的时间。当我们第一次着手这样做时,我们并不认为我们的算法能够自然地捕捉到这些行为,“雅各布说。

研究人员在三个不同的建模任务中测试了他们的方法:从以前的路线推断导航目标,从他们的口头提示中猜测某人的交流意图,以及预测人与人国际象棋比赛中的后续动作。

他们的方法在每个实验中都匹配或优于流行的替代方案。此外,研究人员发现,他们的人类行为模型与棋手技能(在国际象棋比赛中)和任务难度的测量非常吻合。

展望未来,研究人员希望使用这种方法来模拟其他领域的规划过程,例如强化学习(机器人技术中常用的试错法)。从长远来看,他们打算继续以这项工作为基础,朝着开发更有效的人工智能合作者的更大目标迈进。

这项工作得到了麻省理工学院苏世民计算人工智能增强和生产力项目和美国国家科学基金会的部分支持。