不如 Mistral-8x7B,开源没有诚意!马斯克开源的Grok-1问题分析

AIGC动态6个月前发布 算法邦
27 0 0

不如 Mistral-8x7B,开源没有诚意!马斯克开源的Grok-1问题分析

AIGC动态欢迎阅读

原标题:不如 Mistral-8x7B,开源没有诚意!马斯克开源的Grok-1问题分析
关键字:知乎,侵权,报告,腾讯,模型
文章来源:算法邦
内容字数:4849字

内容摘要:


智猩猩与智东西将于4月18-19日在北京共同举办2024中国生成式AI大会,阿里巴巴通义千问大模型技术负责人周畅,潞晨科技创始人尤洋,生数科技CEO唐家渝,优必选研究院执行院长焦继超,科大讯飞人形机器人首席科学家季超,DeepWisdom合伙人徐宗泽,腾讯研究科学家张驰,前Meta首席工程负责人胡鲁辉等首批嘉宾已确认带来演讲和报告,欢迎报名。导读本文来自知乎,作者为成诚,是昆仑万维 AI Infra 负责人。本文是作者针对知乎热门问题“马斯克开源 Grok-1,该混合专家模型拥有 3140 亿参数系迄今最大,将对相关领域产生哪些影响?”给出的回答~
原文链接:https://www.zhihu.com/question/649026232/answer/3434588658
本文只做学术/技术分享,如有侵权,联系删文。实际上没有什么影响。 个人评价是”电子垃圾“,不会有人真正基于该模型做什么后续的应用。
Grok-1 类似于之前开源的 Falcon-180B, 或者是 Switch-C (1T 参数),参数量大是真的大,但是模型效果也是真的差,性价比极低。
参考:https://hug


原文链接:不如 Mistral-8x7B,开源没有诚意!马斯克开源的Grok-1问题分析

联系作者

文章来源:算法邦
作者微信:allplusai
作者简介:智猩猩矩阵账号之一,连接AI新青年,讲解研究成果,分享系统思考。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...