一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

AIGC动态1年前 (2023)发布 机器之心
60 0 0

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

AIGC动态欢迎阅读

原标题:一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

关键字:专家,模型,融资,参数,公司

文章来源:机器之心

内容字数:3764字

内容摘要:机器之心报道机器之心编辑部「高端」的开源,往往采用最朴素的发布方式。昨天,Mistral AI 在 X 平台甩出一条磁力链接,宣布了新的开源动作。没有长篇官方博客,没有刻意加速的 Demo,这家公司算是当下大模型领域的「一股清流」。打开一看,发现是接近 87 GB 的种子:参数配置什么样?很多人放弃了周末,第一时间下载运行起来。看上去,Mistral 8x7B 使用了与 GPT-4 非常相似的架构,但是「缩小版」:8 个专家总数,而不是 16 名(减少一半)每个专家为 7B 参数,而不是 166B(减少 24 倍)42B 总参数(估计)而不是 1.8T(减少 42 倍)与原始 GPT-4 相同的 32K 上下文在发布后 24 小时内,已经有开发者做出了在线体验网站:https://replicate.com/nateraw/mixtral-8x7b-32kseqlen有研究者称:「闭源大模…

原文链接:点此阅读原文:一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

联系作者

文章来源:机器之心

作者微信:almosthuman2014

作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...