AIGC动态欢迎阅读
原标题:LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」
关键字:图形,任务,节点,问题,文本
文章来源:新智元
内容字数:3834字
内容摘要:
新智元报道编辑:Mindy
【新智元导读】图是组织信息的一种有用方式,但LLMs主要是在常规文本上训练的。谷歌团队找到一种将图转换为LLMs可以理解的格式的方法,显著提高LLMs在图形问题上超过60%的准确性。在计算机科学领域,图形结构由节点(代表实体)和边(表示实体之间的关系)构成。
图无处不在。
互联网本身就像是一张庞大的网络图,甚至搜索引擎所使用的知识也是以图的形式进行组织和呈现。
但由于LLMs主要在常规文本上训练,并没有图的结构,将图转化为LLMs能理解的文本是一项非常复杂的任务。
在ICLR 2024上,一支来自谷歌的团队探索了如何将图形数据转换为适合LLMs理解的形式。
论文地址:https://openreview.net/pdf?id=IuXR1CCrSi
使用两种不同的方法将图形编码为文本,并将文本和问题反馈给LLM的过程
他们还创造了一个名为GraphQA的基准,用于研究不同的图推理问题解决方法,并演示了如何以一种让LLM能够解决图形相关问题的方式来表述图相关问题。
使用正确的方法,使得LLMs在图形任务上最高得以提升60%的性能。
GraphOA:一场对LLM
原文链接:LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」
联系作者
文章来源:新智元
作者微信:AI_era
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...