AIGC动态欢迎阅读
原标题:BrainGPT:超越神经科学家的GPT
关键字:神经,模型,科学,研究者,人类
文章来源:大数据文摘
内容字数:12311字
内容摘要:
大数据文摘授权转载自追问nextquestion
面对科研工作中海量的科学文献,科研人员常常感到不胜其扰。一方面,随着文献数量的指数级增长,人们难免会担心是否有颠覆性的发现未能引起足够的注意;另一方面,处理和整合这样大体量的发现已经超出了人类的能力范围。积累和整合知识,这一对科研工作者至关重要的能力,似乎只能通过数十年的经验积累才能达到。随着大语言模型(LLM)的流行,它是否能为我们找到打破这一困境的新路径?
人工智能与人类科学家之间的“互帮互助”其实早有渊源,在蛋白质折叠、药物研发和材料科学等领域,早就将机器学习算法用于研究中,这些研究背后的逻辑便是运用人工智能强大的计算与挖掘信息的能力来开发新的结构。那为何不将这种数据驱动的模式与规律学习能力用于建立针对科研文献的通用网络呢?
近日,在arxiv公开的一项工作便考虑了这种可能,通过在科研文献的通用文本数据集上训练LLM,让它们能够预测实验结果,测试了人类与LLM完成这一任务的能力对比、并最终建立了一个专门助力神经科学科研的BrainGPT。▷Luo, Xiaoliang, et al. “Large language models
原文链接:BrainGPT:超越神经科学家的GPT
联系作者
文章来源:大数据文摘
作者微信:BigDataDigest
作者简介:普及数据思维,传播数据文化
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...