摘要:研究人员开发了一种更有效的方法来控制大型语言模型的输出,从而引导其生成遵守某种结构(例如编程语言)的文本,并保持无错误。...
程序员现在可以使用大型语言模型(LLMS)更快地生成计算机代码。但是,如果该代码遵循编程语言的规则并且不会导致计算机崩溃,这只会使程序员的生活更加轻松。
存在一些方法,以确保LLM符合其生成文本的任何语言的规则,但是其中许多方法要么扭曲了模型的预期含义,要么太耗时了,以至于对于复杂的任务而言是可行的。
麻省理工学院和其他地方的研究人员开发的一种新方法会自动指导LLM生成遵守相关语言规则的文本,例如特定的编程语言,并且也无错误。他们的方法使LLM可以为最有可能有效和准确的输出分配努力,同时在此过程的早期丢弃无主张的输出。这种概率方法提高了计算效率。
由于这些效率的提高,研究人员的体系结构使小型LLM能够超过更大的模型,用于为几种现实世界中的几种用例,包括分子生物学和机器人技术生成准确的结构化输出。
从长远来看,这种新的体系结构可以帮助无XPERTS控制AI生成的内容。例如,它可以允许商人在SQL(仅使用自然语言提示的数据库操作语言)中编写复杂的查询。
麻省理工学院研究生兼共同领导者JoãoLoula说:“这项工作还具有研究的影响。它可以通过确保AI生成的产出既有用,也可以改善AI驱动的数据分析以及科学发现工具。”
Mila-Quebec人工智能研究所的研究助理和约翰·霍普金斯大学的研究生李·杜(Li du Du)的研究助理本杰明·勒布朗(Benjamin Lebrun)和约翰·霍普金斯大学(John Hopkins University)的研究助理共同领导了Loula。联合院士作者Vikash Mansinghka '05,Meng '09,PhD '09,MIT大脑和认知科学系的概率计算项目的首席研究科学家和领导者;耶鲁大学的助理教授亚历山大·K·莱克20岁;蒂姆·维埃拉(Tim Vieira),苏黎世Eth的博士后;麦吉尔大学(McGill University)的副教授,米拉(Mila)的加拿大Cifar AI主席蒂莫西·J·奥多内尔(Timothy J. O'Donnell),他领导了国际团队;以及其他几个。该研究将在国际学习表现会议上介绍。
执行结构和含义
控制LLMS生成的结构化文本的一种常见方法涉及检查整个输出,例如计算机代码块,以确保其有效并且将无错误运行。如果不是,则用户必须重新开始,从而增加计算资源。
另一方面,程序员可以停止检查沿途的输出。虽然这可以确保代码遵守编程语言并在结构上有效,但逐步纠正代码可能会导致其从用户预期的含义中偏离,从长远来看会损害其准确性。
Loula说:“执行结构比含义要容易得多。我们可以快速检查某些内容是否正确的编程语言,但是要检查其含义您必须执行代码。我们的工作也是要处理这些不同类型的信息。”
研究人员的方法涉及在LLM中进行工程知识,以将其转向最有前途的输出。这些输出更有可能遵循用户定义的结构约束,并具有用户打算的含义。
Mansinghka补充说:“我们不是在试图培训LLM来做到这一点。相反,我们正在设计一些专家会拥有的知识,并将其与LLM的知识相结合,这提供了与您在深度学习中看到的截然不同的缩放方法。”
他们使用一种称为顺序蒙特卡洛的技术来实现这一目标,该技术使LLM的平行生成可以相互竞争。该模型根据有希望的输出的出现方式将资源动态分配给并行计算的不同线程。
给出每个输出的重量,表示其在结构上有效和语义准确的可能性。在计算中的每个步骤中,该模型都集中在权重较高并抛出其余的那些步骤上。
从某种意义上说,这就像LLM有一位专家俯瞰其肩膀,以确保其在每个步骤中做出正确的选择,同时使其专注于整体目标。用户指定其所需的结构和含义,以及如何检查输出,然后研究人员的体系结构指导LLM完成其余的工作。
Loula说:“我们已经确定了艰苦的数学,以便,对于您想整合的任何限制,您都将获得适当的权重。最后,您得到了正确的答案。”
增强小型型号
为了测试他们的方法,他们将该框架应用于LLM,该框架是生成四种输出的任务:Python代码,SQL数据库查询,分子结构和计划以遵循机器人。
与现有方法相比,研究人员的方法更准确地执行,同时需要更少的计算。
例如,在Python代码生成中,研究人员的体系结构启用了一个小型开放源代码模型,以胜过专门的商业封闭式货币模型,该模型的大小是两倍以上。
Loula说:“我们很兴奋,我们可以让这些小型模型超出其重量。”
展望未来,研究人员希望使用他们的技术来控制大量生成的文本,而不是一次工作。他们还希望将方法与学习相结合,以便在控制模型产生的输出时,它会学会更准确。
从长远来看,该项目可能为非技术用户提供更广泛的应用程序。例如,它可以与用于自动数据建模的系统结合使用,并查询数据库的生成模型。
Mansinghka补充说,该方法还可以启用机器辅助的数据分析系统,用户可以与软件交谈,以准确地对数据的含义和用户提出的问题进行建模。
“语言学的基本问题之一是,单词,短语和句子的含义如何基于世界模型,考虑到含义和参考的不确定性和模糊性。LLMS,预测可能的标记序列,不要解决这个问题。我们的论文表明,在狭窄的符号域中,在狭窄的符号范围内,在狭窄的符号中,在较小的文字上绘制了较小的含义。语言学和人工智能需要了解机器如何像我们一样对世界进行交流。” O'Donnell说。
这项研究部分由加拿大CIFAR AI椅子计划以及Siegel Family Foundation通过礼物给MIT Siegel Family for Intellotence资助