国产开源MoE指标炸裂:GPT-4级别能力,API价格仅百分之一

AIGC动态4个月前发布 量子位
8 0 0

国产开源MoE指标炸裂:GPT-4级别能力,API价格仅百分之一

AIGC动态欢迎阅读

原标题:国产开源MoE指标炸裂:GPT-4级别能力,API价格仅百分之一
关键字:报告,模型,显存,表示,代码
文章来源:量子位
内容字数:3159字

内容摘要:


明敏 发自 凹非寺量子位 | 公众号 QbitAI最新国产开源MoE大模型,刚刚亮相就火了。
DeepSeek-V2性能达GPT-4级别,但开源、可免费商用、API价格仅为GPT-4-Turbo的百分之一。
因此一经发布,立马引发不小讨论。
从公布的性能指标来看,DeepSeek-V2的中文综合能力超越一众开源模型,并和GPT-4-Turbo、文心4.0等闭源模型同处第一梯队。
英文综合能力也和LLaMA3-70B同处第一梯队,并且超过了同是MoE的Mixtral 8x22B。
在知识、数学、推理、编程等方面也表现出不错性能。并支持128K上下文。
这些能力,普通用户都能直接免费使用。现在内测已开启,注册后立马就能体验。
API更是是骨折价:每百万tokens输入1元、输出2元(32K上下文)。价格仅为GPT-4-Turbo的近百分之一。
同时在模型架构也进行创新,采用了自研的MLA(Multi-head Latent Attention)和Sparse结构,可大幅减少模型计算量、推理显存。
网友感叹:DeepSeek总是给人带来惊喜!
具体效果如何,我们已抢先体验!
实测一下目前V2


原文链接:国产开源MoE指标炸裂:GPT-4级别能力,API价格仅百分之一

联系作者

文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...