AIGC动态欢迎阅读
原标题:多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊
关键字:序列,模型,任务,类型,下游
文章来源:机器之心
内容字数:5260字
内容摘要:
将 ScienceAI设为星标
第一时间掌握
新鲜的 AI for Science 资讯编辑 | 萝卜芯
预训练语言模型在分析核苷酸序列方面显示出了良好的前景,但使用单个预训练权重集在不同任务中表现出色的多功能模型仍然存在挑战。
百度大数据实验室(Big Data Lab,BDL)和上海交通大学团队开发了 RNAErnie,一种基于 Transformer 架构,以 RNA 为中心的预训练模型。
研究人员用七个数据集和五个任务评估了模型,证明了 RNAErnie 在监督和无监督学习方面的优越性。
RNAErnie 超越了基线,分类准确率提高了 1.8%,交互预测准确率提高了 2.2%,结构预测 F1 得分提高了 3.3%,展现了它的稳健性和适应性。
该研究以「Multi-purpose RNA language modelling with motif-aware pretraining and type-guided fine-tuning」为题,于 2024 年 5 月 13 日发布在《Nature Machine Intelligence》。
RNA 在分子生物学的中心法则中扮演
原文链接:多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊
联系作者
文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...