不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

AIGC动态1个月前发布 机器之心
379 0 0

赶紧用起来吧。

不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

原标题:不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果
文章来源:机器之心
内容字数:5171字

Inception Labs发布首个商业级扩散大型语言模型Mercury

本文总结了机器之心报道的Inception Labs发布的商业级扩散大型语言模型Mercury (dLLM) 的主要信息。该模型在速度和性能上均展现出显著优势,有望革新大型语言模型的应用范式。

1. Mercury:速度与性能兼备的dLLM

当前,Transformer和扩散模型是AI领域最热门的模型架构。Inception Labs推出的Mercury,是首个商业级扩散大型语言模型,它结合了两种架构的优势,在NVIDIA H100上实现了每秒超过1000 token的处理速度,性能与现有经过速度优化的LLM相当甚至超越。这比一些前沿模型的速度快了20倍以上,以往只有专用硬件才能达到如此高的吞吐量。

2. 扩散模型的优势与突破

不同于传统的自回归LLM从左到右逐个生成token,扩散模型一次性预测所有方向,从噪声开始逐步去噪生成token流。虽然过去研究认为自回归更适合文本,但Mercury证明了扩散模型在文本模态上的巨大潜力。其“从粗到细”的生成方式,使其在推理、结构化响应、纠错和减少幻觉方面表现更好。

3. Mercury Coder:代码生成领域的佼佼者

Mercury Coder是Inception Labs发布的第一个面向公众的dLLM。在标准编码基准测试中,它超越了GPT-4o Mini和Claude 3.5 Haiku等为速度优化的自回归模型,速度提升高达10倍。在Copilot Arena的基准测试中,Mercury Coder Mini的性能甚至超过了GPT-4o等更大的模型,并且速度是GPT-4o Mini的4倍。

4. 高效的并行生成机制

Mercury利用GPU的并行生成机制,显著提高了效率,降低了推理成本(高达10倍)。这意味着在相同的硬件上,可以为更多用户提供服务,降低了运营成本。

5. 广泛的应用前景

Mercury Coder支持多种用例,包括RAG(检索增强生成)、工具使用和智能体工作流。目前已上线公开试用,Inception Labs也为企业用户提供API和内部部署服务。

6. 行业影响与未来展望

著名AI研究科学家Andrej Karpathy高度评价了Mercury的意义,认为它进一步证明了扩散模型在文本模态上的潜力。Inception Labs的成功,标志着扩散模型在大型语言模型领域的重大突破,为下一代LLM的发展指明了方向。

总而言之,Mercury的出现标志着扩散模型在大型语言模型领域的重大突破,其卓越的速度和性能优势,为LLM的应用带来了新的可能性,也预示着未来LLM发展的新方向。


联系作者

文章来源:机器之心
作者微信:
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明
Trae官网

相关文章

Trae官网

暂无评论

暂无评论...