标签:序列
AlphaFold 3不开源,统一生物语言大模型阿里云先开了!
西风 发自 凹非寺量子位 | 公众号 QbitAI把169861个生物物种数据装进大模型,大模型竟get到了生物中心法则的奥秘—— 不仅能识别DNA、RNA与相应蛋白质之间的内...
图灵奖得主Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存
来源:机器之心 机器之心编辑部既能像 Transformer 一样并行训练,推理时内存需求又不随 token 数线性递增,长上下文又有新思路了?序列建模的进展具有极大的...
Transformer大杀器进入蛋白质组学,一文梳理LLM如何助力生命科学领域大变革
新智元报道编辑:庸庸 乔杨 【新智元导读】科学家们把Transformer模型应用到蛋白质序列数据中,试图在蛋白质组学领域复制LLM的成功。本篇文章能够带你了解蛋...
Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存
机器之心报道 机器之心编辑部既能像 Transformer 一样并行训练,推理时内存需求又不随 token 数线性递增,长上下文又有新思路了?序列建模的进展具有极大的影...
单模型斩获「蛋白质突变预测」榜一!西湖大学提出基于结构词表方法 | ICLR 2024 Spotlight
新智元报道编辑:LRS 【新智元导读】Saprot在proteingym蛋白质突变预测任务公开基准榜(由牛津大学计算机与哈佛医学院设立)排名第一。相比,其他排名靠前的...
GPT模型的前世今生
大数据文摘授权转载自数据派THU 作者:李媛媛 1 GPT模型概述 GPT模型,全称Generative Pre-trained Transformer,由OpenAI团队开发,是一种基于深度学习的自...
多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊
将 ScienceAI设为星标 第一时间掌握 新鲜的 AI for Science 资讯编辑 | 萝卜芯 预训练语言模型在分析核苷酸序列方面显示出了良好的前景,但使用单个预训练权...
ICML 2024 | 大语言模型预训练新前沿:「最佳适配打包」重塑文档处理标准
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
思维链不存在了?纽约大学最新研究:推理步骤可「省略」
新智元报道编辑:alan 【新智元导读】思维链技术,可能要被推翻了!来自纽约大学的最新研究表明:大模型并没有利用思维链的推理能力,它只是偷偷加了计算!红...
AlphaFold 3轻松应对核酸、脂类分子?科学家迫不及待地更新了评测
将 ScienceAI设为星标 第一时间掌握 新鲜的 AI for Science 资讯编辑 | 萝卜皮 「如果这可以重现的话,这就是我们所知的世界末日!功能建模的新时代已经开始...
3倍生成速度还降内存成本,超越Medusa2的高效解码框架终于来了
机器之心报道 编辑:亚鹂高效解码n -token序列,CLLMs+Jacobi解码框架。 传统上,大型语言模型(LLMs)被认为是顺序解码器,逐个解码每个token。 来自...
抛弃自回归,连接一致性Diffusion和LLM!UCSD上交新作热度紧追AF 3
新智元报道编辑:乔杨 好困 【新智元导读】来自加州大学圣地亚哥分校和上海交通大学的几位研究者发表了他们关于「一致性大语言模型」的研究成果(Consistency...
Transformer来了:一篇新的论文轰动网络,它为什么这么厉害?
点击上方蓝字关注我们在人工智能的世界里,每一次技术的飞跃都让我们离真正的智能更近一步。最近,LSTM(长短期记忆网络)的发明者们发布了一篇新论文,介绍...
30篇论文,就能掌握当今科技90%的知识!ILYA公布神级论文清单(上)
点击上方蓝字关注我们“Ilya Sutskever向John Carmack推荐了一份精选的阅读清单,内含约30篇尖端的研究论文。这份清单不仅仅是学术文献的简单罗列,它被赋予了...
让机器准确「看懂」手物交互动作,清华大学等提出GeneOH Diffusion方法
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...