开源模型超过最强闭源模型,Llama 3.1能否颠覆AI生态?|甲子光年

开源模型超过最强闭源模型,Llama 3.1能否颠覆AI生态?|甲子光年

AIGC动态欢迎阅读

原标题:开源模型超过最强闭源模型,Llama 3.1能否颠覆AI生态?|甲子光年
关键字:模型,数据,性能,开发者,能力
文章来源:甲子光年
内容字数:0字

内容摘要:


扎克伯格誓要把开源进行到底。作者|苏霍伊
编辑|赵健Llama 3.1终于来了。
美国当地时间7月23日,Meta正式发布Llama 3.1。其包含8B、70B 和405B三个规模,最大上下文提升到了128k。Llama目前开源领域中用户最多、性能最强的大型模型系列之一。
本次Llama 3.1的要点有:
1.共有8B、70B及405B三种版本,其中405B版本是目前最大的开源模型之一;2.该模型拥有4050亿参数,在性能上超越了现有的顶级AI模型;3.模型引入了更长的上下文窗口(最长可达128K tokens),能够处理更复杂的任务和对话;4.支持多语言输入和输出,增强了模型的通用性和适用范围;5.提高了推理能力,特别是在解决复杂数学问题和即时生成内容方面表现突出。Meta在官方博客中写道:“时至今日,开源大语言模型性能落后于闭源模型仍是常态。但现在,我们正在迎来一个开源引领的新时代。我们公开发布Meta Llama 3.1 405B是世界上最大、功能最强大的开源基础模型。迄今为止,所有Llama版本的累计下载次数已超过3亿,而这只是一个开始。”
开源与闭源的争论一直是技术领域的热点


原文链接:开源模型超过最强闭源模型,Llama 3.1能否颠覆AI生态?|甲子光年

联系作者

文章来源:甲子光年
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...