研究人员引入了一种称为自然语言嵌入程序(NLEPs)的新方法,以提高大型语言模型(LLMs)的数值和符号推理能力。该技术涉及提示LLMs生成和执行Python程序来解决用户查询,然后以自然语言输出解决方案。
虽然像ChatGPT这样的LLMs在各种任务上表现出色,但它们在需要数值或符号推理的问题上往往遇到困难。
NLEPs遵循四个步骤的问题解决模板:调用必要的包,导入所需知识的自然语言表示,实现解决方案计算函数,并以自然语言输出结果,可选数据可视化。
这种方法具有多个优点,包括提高准确性、透明度和效率。用户可以调查生成的程序并直接修复错误,避免重新运行整个模型进行故障排除的需要。此外,通过替换某些变量,可以重复使用单个NLEP来执行多个任务。
研究人员发现,NLEPs使得GPT-4在各种符号推理任务上实现了超过90%的准确率,比任务特定提示方法高出30%。
除了提高准确性,NLEPs还可以通过在本地运行程序来增强数据隐私,消除将敏感用户数据发送给外部公司进行处理的需要。该技术还可以提高较小语言模型的性能,而无需昂贵的重新训练。
然而,NLEPs依赖于模型的程序生成能力,可能在受限数据集上训练的较小模型上效果不佳。未来的研究将探索使较小LLMs生成更有效的NLEPs的方法,并研究提示变体对推理鲁棒性的影响。
这项研究得到了香港感知与交互智能中心的部分支持,并将在本月晚些时候在北美计算语言学协会年会上展示。
(照片由Alex Azabache提供)
另请参阅:苹果据称正在获得免费的ChatGPT访问
想要从行业领导者那里了解更多关于人工智能和大数据的知识吗?请查看在阿姆斯特丹、加利福尼亚和伦敦举办的AI&Big Data Expo。这个综合性的活动与其他领先的活动同时举办,包括智能自动化会议、BlockX、数字化转型周和网络安全与云计算博览会。
探索由TechForge提供支持的其他即将举行的企业技术活动和网络研讨会。