标签:序列
Meta无限长文本大模型来了:参数仅7B,已开源
机器之心报道 编辑:泽南、陈萍谷歌之后,Meta 也来卷无限长上下文。Transformers 的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意...
极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术...
谁说大象不能起舞! 重编程大语言模型实现跨模态交互的时序预测 | ICLR 2024
机器之心专栏 机器之心编辑部最近,来自澳大利亚蒙纳士大学、蚂蚁集团、IBM 研究院等机构的研究人员探索了模型重编程 (model reprogramming) 在大语言模型 (L...
腾讯大模型落地实操:模型推理引擎 TACO-LLM 的实践、腾讯乐享的 AI 功能探索
大模型在今年的落地,除了对用 AI 对已有业务进行改造和提效外,算力和推理的优化,可能是另外一项重要的实践了。这在腾讯的两个完全不同的业务上有着明显的...
谷歌提出深度混合:使 AI 模型速度提高 50%
点击上方蓝字关注我们“本文介绍了一种名为'深度混合'的创新方法,旨在解决基于Transformer的语言模型在处理长序列或复杂任务时面临的计算资源分配问题。该方...
Up主已经开始鬼畜,腾讯开源「AniPortrait」让照片唱歌说话
机器之心报道 编辑:PandaAniPortrait 模型是开源的,可以自由畅玩。「小破站鬼畜区的新质生产力工具。」 近日,腾讯开源发布的一个新项目在推上获得了如此评...
CVPR 2024 | 让视频姿态Transformer变得飞速,北大提出高效三维人体姿态估计框架HoT
机器之心专栏 机器之心编辑部目前,Video Pose Transformer(VPT)在基于视频的三维人体姿态估计领域取得了最领先的性能。近年来,这些 VPT 的计算量变得越来...
谁将取代 Transformer?
来源:AI科技评论 作者:张进( AI科技评论) 2017年谷歌发表的论文《Attention Is All You Need》成为当下人工智能的一篇圣经,此后席卷全球的人工智能热潮...
谁将替代 Transformer?
非 Transformer 面临的共同考验依然是证明自己的天花板有多高。作者丨张进 编辑丨陈彩娴 2017年谷歌发表的论文《Attention Is All You Need》成为当下人工智...
长时舞蹈生成:数秒钟可生成极长的3D舞蹈
大数据文摘受权转载自将门创投 针对目前音乐生成3D舞蹈动作中存在的长序列生成动作质量差,生成效率低的问题,本文提出了Lodge,可以高效地根据输入音乐生成...
仅需200M参数,零样本性能超越有监督!谷歌发布时序预测基础模型TimesFM
新智元报道编辑:LRS 【新智元导读】TimesFM针对时序数据设计,输出序列长于输入序列,在1000亿时间点数据进行预训练后,仅用200M参数量就展现出超强零样本学...
LLM将成历史?开源bGPT或颠覆深度学习范式:直接模拟二进制,开启模拟数字世界新纪元!
新智元报道编辑:LRS 【新智元导读】新模型bGPT是一个基于字节的Transformer模型,能够将不同类型的数据纳入同一框架之下,可以生成文本、图像和音频,还能模...
不依赖token,字节级模型来了!直接处理二进制数据
数字游民 投稿量子位 | 公众号 QbitAI最新GPT,不预测token了。 微软亚研院等发布bGPT,仍旧基于Transformer,但是模型预测的是下一个字节(byte)。 通过直...
DeepMind携Mamba华人作者推Transformer革命之作!性能暴涨媲美Llama 2,推理能效大幅碾压
新智元报道编辑:编辑部 【新智元导读】线性RNN赢了?近日,谷歌DeepMind一口气推出两大新架构,在d基准测试中超越了Transformer。新架构不仅保证了高效的训...
RNN效率媲美Transformer,谷歌新架构两连发:同等规模强于Mamba
机器之心报道 机器之心编辑部去年 12 月,新架构 Mamba 引爆了 AI 圈,向屹立不倒的 Transformer 发起了挑战。如今,谷歌 DeepMind「Hawk 」和「Griffin 」的...