仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型

AIGC动态8个月前发布 机器之心
16 0 0

仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型

AIGC动态欢迎阅读

原标题:仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型
关键字:模型,参数,企业,团队,高效
文章来源:机器之心
内容字数:5878字

内容摘要:


机器之心报道
编辑:小舟、崔亚鹂Snowflake 加入 LLM 混战。Snowflake 发布高「企业智能」模型 Arctic,专注于企业内部应用。
刚刚,数据管理和仓库提供商 Snowflake 宣布加入 LLM 混战,发布了一款专注于企业级应用的顶级大型语言模型(LLM)——Snowflake Arctic。
作为一家云计算公司推出的 LLM,Arctic 主要具备以下两个方面的优势:
高效智能:Arctic 在企业任务方面表现出色,例如 SQL 生成、编程和指令遵循,甚至可与使用更高计算成本训练的开源模型媲美。Arctic 为经济高效的训练设定了新的基线,使 Snowflake 客户能够以低成本为其企业需求创建高质量的定制模型。
开源开放:Arctic 采用 Apache 2.0 许可,提供对权重和代码的开放访问,Snowflake 还将开源所有的数据方案和研究发现。现在,你可以在 Hugging Face 问 Arctic 模型。Snowflake 表示:用户很快可以通过一些模型库获取,包括 Snowflake Cortex、AWS、微软 Azure、NVIDIA API


原文链接:仅需Llama3 1/17的训练成本,Snowflake开源128x3B MoE模型

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...