AIGC动态欢迎阅读
原标题:2.5天完成1年的MD计算?DeepMind团队基于欧几里得Transformer的新计算方法
关键字:模型,卷积,尺度,架构,原子
文章来源:人工智能学家
内容字数:0字
内容摘要:
将 ScienceAI设为星标
第一时间掌握
新鲜的 AI for Science 资讯编辑 | 萝卜皮
近年来,基于从头算参考计算的机器学习力场 (MLFF) 的开发取得了巨大进展。虽然实现了较低的测试误差,但由于担心在较长的模拟时间范围内会出现不稳定性,MLFF 在分子动力学 (MD) 模拟中的可靠性正面临越来越多的审查。
研究表明,对累积不准确性的稳健性与 MLFF 中使用等变表示之间存在潜在联系,但与这些表示相关的计算成本可能会在实践中限制这种优势。
为了解决这个问题,Google DeepMind、柏林工业大学(TU Berlin)的研究人员提出了一种名为 SO3krates 的 transformer 架构,它将稀疏等变表示(欧几里得变量)与分离不变和等变信息的自注意力机制相结合,从而无需昂贵的张量积。
SO3krates 实现了精确度、稳定性和速度的独特组合,能够对长时间和系统尺度上的物质量子特性进行深入分析。
该研究以「A Euclidean transformer for fast and stable machine learned force fields」为题,
原文链接:2.5天完成1年的MD计算?DeepMind团队基于欧几里得Transformer的新计算方法
联系作者
文章来源:人工智能学家
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...