AIGC动态欢迎阅读
原标题:1个token终结LLM数字编码难题!九大机构联合发布xVal:训练集没有的数字也能预测!
文章来源:新智元
内容字数:11432字
内容摘要:新智元报道编辑:LRS【新智元导读】LLM的文科脑终于理解数字空间是连续的了,只需一个特殊的[NUM]即可表征所有数字,不仅效率更高,泛化性能也更强!虽然大型语言模型(LLM)在文本分析和生成任务上的性能非常强大,但在面对包含数字的问题时,比如多位数乘法,由于模型内部缺乏统一且完善的数字分词机制,会导致LLM无法理解数字的语义,从而胡编乱造答案。目前LLM还没有广泛应用于科学领域数据分析的一大阻碍…
原文链接:点此阅读原文:1个token终结LLM数字编码难题!九大机构联合发布xVal:训练集没有的数字也能预测!
联系作者
文章来源:新智元
作者微信:AI_era
作者简介:智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...