标签:序列
斯坦福博士图解AlphaFold 3:超多细节+可视化还原ML工程师眼中的AF3
新智元报道编辑:乔杨 庸庸 【新智元导读】AlphaFold 3的论文太晦涩?没关系,斯坦福大学的两位博士生「图解」AlphaFold 3 ,将模型架构可视化,同时不遗漏任...
清华提出时间序列大模型:面向通用时序分析的生成式Transformer | ICML 2024
新智元报道编辑:LRST 好困 【新智元导读】大模型在语言、图像领域取得了巨大成功,时间序列作为多个行业的重要数据类型,时序领域的大模型构建尚处于起步阶...
多篇顶会成果!多人互动中的人体动作与反应生成 | 上海交大徐良博士讲座预告
「智猩猩AI新青年讲座」由智猩猩出品,致力于邀请青年学者,主讲他们在生成式AI、LLM、AI Agent、CV等人工智能领域的最新重要研究成果。 AI新青年是加速人工...
kimi chat大模型的200万长度无损上下文可能是如何做到的?
7月11日19点,「智猩猩自动驾驶新青年讲座」第36讲将开讲,主讲理想汽车最新成果:基于MLLM的闭环规划智能体PlanAgent,由理想汽车实习研究员、中国科学院自...
大模型最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻Transformer
新智元报道编辑:编辑部 【新智元导读】超越Transformer和Mamba的新架构,刚刚诞生了。斯坦福UCSD等机构研究者提出的TTT方法,直接替代了注意力机制,语言模...
图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响
新智元报道编辑:LRST 好困 【新智元导读】SelfGNN框架结合了图神经网络和个性化自增强学习,能够捕捉用户行为的多时间尺度模式,降低噪声影响,提升推荐系统...
LLM用于时序预测真的不行,连推理能力都没用到
机器之心报道 编辑:panda语言模型真的能用于时序预测吗?根据贝特里奇头条定律(任何以问号结尾的新闻标题,都能够用「不」来回答),答案应该是否定的。事...
拆分Transformer注意力,韩国团队让大模型解码提速20倍
克雷西 发自 凹非寺量子位 | 公众号 QbitAI只要将注意力切块,就能让大模型解码提速20倍。 来自韩国科学技术研究院、LG和DeepMind的研究人员,提出了一种新的...
模拟5亿年的进化信息,首个同时推理蛋白质序列、结构和功能的生物学大模型
来源:ScienceAI 编辑:萝卜皮 在三十亿年的自然进化历程中,现存蛋白质的形态得以形成,经历了漫长的自然筛选过程。进化如同在地质时间尺度上进行的平行实验...
模拟5亿年自然进化史,全新蛋白质大模型ESM3诞生!前Meta老将力作LeCun转赞
新智元报道编辑:乔杨 好困 【新智元导读】能抗衡AlphaFold 3的生命科学大模型终于出现了。初创公司Evolutionary Scale AI发布了他们最新的98B参数蛋白质语言...
小米大模型提效新框架:训练最高提速34%,推理最高提速52%!Kaldi之父合作出品
直播预告 | 6月25日晚7点,「智猩猩机器人新青年讲座」第9讲正式开讲,UMass Amherst在读博士周沁泓将直播讲解《在具身智能模拟器中针对动态灾害进行具身决策...
AI研究的主要推动力会是什么?ChatGPT团队研究科学家:算力成本下降
机器之心报道 编辑:PandaAI 研究发展的主要推动力是什么?在最近的一次演讲中,OpenAI 研究科学家 Hyung Won Chung 给出了自己的答案。 近日,斯坦福大学《C...
谷歌开源TimesFM:1000亿个时间点训练,入选ICML 2024
新智元报道编辑:乔杨 【新智元导读】在大语言模型突飞猛进的同时,谷歌的研究团队在时序预测方面也取得了突破性的成果——今年2月发表的模型TimesFM,而且放出...
原作者带队,LSTM卷土重来之Vision-LSTM出世
机器之心报道 编辑:鸭梨、蛋酱与 DeiT 等使用 ViT 和 Vision-Mamba (Vim) 方法的模型相比,ViL 的性能更胜一筹。 AI 领域的研究者应该还记得,在 Transforme...
Mamba-2新架构出世一统江湖!普林斯顿CMU华人再出神作,性能狂飙8倍
新智元报道编辑:编辑部 【新智元导读】在开源社区引起「海啸」的Mamba架构,再次卷土重来!这次,Mamba-2顺利拿下ICML。通过统一SSM和注意力机制,Transform...