开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有

AIGC动态9个月前发布 机器之心
15 0 0

开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有

AIGC动态欢迎阅读

原标题:开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有
关键字:模型,基准,参数,效率,质量
文章来源:机器之心
内容字数:10134字

内容摘要:


机器之心报道
编辑:泽南、陈萍「太狂野了」。这是迄今为止最强大的开源大语言模型,超越了 Llama 2、Mistral 和马斯克刚刚开源的 Grok-1。本周三,大数据人工智能公司 Databricks 开源了通用大模型 DBRX,这是一款拥有 1320 亿参数的混合专家模型(MoE)。
DBRX 的基础(DBRX Base)和微调(DBRX Instruct)版本已经在 GitHub 和 Hugging Face 上发布,可用于研究和商业用途。人们可以自行在公共、自定义或其他专有数据上运行和调整它们,也可以通过 API 的形式使用。
基础版:https://huggingface.co/databricks/dbrx-base
微调版:https://huggingface.co/databricks/dbrx-instruct
GitHub 链接:https://github.com/databricks/dbrx
DBRX 在语言理解、编程、数学和逻辑等方面轻松击败了目前业内领先的开源大模型,如 LLaMA2-70B、Mixtral 和 Grok-1。DBRX 在语言理解(MML


原文链接:开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...