摘要:许多人在日常生活中越来越多地使用了基于人工智能(AI)的代理商,聊天机器人和其他工具。所谓的大型语言模型(LLM)基于Chatgpt和Llama之类的代理商在其形成的响应中变得令人印象深刻,但经常提供令人信服但不正确的信息。研究人员在这个问题和被称为失语症的人类语言障碍之间取得了相似之处,患者可能会说流利,但会产生毫无意义或难以理解的陈述。这种相似性可以...
许多人在日常生活中越来越多地使用了基于人工智能(AI)的代理商,聊天机器人和其他工具。所谓的大型语言模型(LLM)基于Chatgpt和Llama之类的代理商在其形成的响应中变得令人印象深刻,但经常提供令人信服但不正确的信息。东京大学的研究人员在这个问题和被称为失语症的人类语言障碍之间取得了相似之处,患者可能会说流利,但会发表毫无意义或难以理解的陈述。这种相似性可以指出更好的失语症诊断形式,甚至为寻求改善基于LLM的代理的AI工程师提供了见识。

这篇文章是由人类撰写的,但是在许多领域,使用文本生成的AI正在上升。随着越来越多的人开始使用并依靠这些事情,因此需要不断增加的需求,以确保这些工具向用户提供正确且连贯的响应和信息。许多熟悉的工具,包括Chatgpt和其他工具,他们提供的一切都很流利。但是,由于它们产生的本质上构成内容的数量,他们的反应不能总是依靠。如果用户对有关主题领域的了解不足以了解,那么他们很容易假设此信息是正确的,尤其是考虑到高度的信心chatgpt和其他人的表现。
东京国际神经智能研究中心(WPI-IRCN)的沃奇马图教授说:“您不会注意到某些AI系统如何表现出明确的表现。” “但是,我和我的团队的震惊是这种行为与沃尼克失语症患者的相似之处,在这些人的行为中,这些人说话流利,但并不总是有意义。这促使我们怀疑这些AI系统的内部机制是否与受迷惑影响的人类大脑的内部机制相似,以及是否有含义,这可能是什么。”
为了探讨这一想法,该团队使用了一种称为能量景观分析的方法,该方法最初是由试图在磁性金属中可视化能量状态的物理学家开发的技术,但最近适用于神经科学。他们检查了从不同类型的失语症患者中休息大脑活动的模式,并将其与几个公开可用LLM的内部数据进行了比较。在他们的分析中,团队确实发现了一些惊人的相似之处。在这些AI模型中,数字信息或信号在这些AI模型中移动和操纵的方式与某些患有某些类型的失语症的人的大脑中的表现,包括Wernicke的失语症。
沃特纳贝说:“您可以想象能量景观作为表面,上面有一个球。当有曲线时,球可能会向下滚下来休息,但是当曲线变浅时,球可能会混乱地滚动。” “在失语症中,球代表了人的大脑状态。在LLMS中,它根据模型中的指示和内部数据集表示模型中的持续信号模式。”
这项研究有几个含义。对于神经科学,它提供了一种基于内部大脑活动而不仅仅是外部症状的失语症(例如失语症)分类和监测状况的新方法。对于AI,它可能会导致更好的诊断工具,以帮助工程师从内而外改善AI系统的体系结构。但是,尽管研究人员发现了相似之处,但他们敦促谨慎不要做太多假设。
渡边说:“我们并不是说聊天机器人会受到脑部损害。” “但是它们可能被锁定在一种僵化的内部模式中,限制了他们可以灵活地借鉴存储的知识,就像在接受失语症一样。未来的模型是否可以克服这种限制还有待观察,但是了解这些内部相似之处可能也是迈向更聪明的第一步,也更具可信赖的AI。”









