8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

AIGC动态11个月前发布 机器之心
66 0 0

8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

AIGC动态欢迎阅读

原标题:8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理
关键字:模型,表示,基准,初始化,步骤
文章来源:机器之心
内容字数:2516字

内容摘要:


机器之心报道
编辑:陈萍感兴趣的小伙伴,可以跟着操作过程试一试。前段时间,Mistral AI 公布的 Mixtral 8x7B 模型爆火整个开源社区,其架构与 GPT-4 非常相似,很多人将其形容为 GPT-4 的「缩小版」。
我们都知道,OpenAI 团队一直对 GPT-4 的参数量和训练细节守口如瓶。Mistral 8x7B 的放出,无疑给广大开发者提供了一种「非常接近 GPT-4」的开源选项。
在基准测试中,Mistral 8x7B 的表现优于 Llama 2 70B,在大多数标准基准测试上与 GPT-3.5 不相上下,甚至略胜一筹。图源:https://mistral.ai/news/mixtral-of-experts/
随着这项研究的出现,很多人表示:「闭源大模型已经走到了结局。」短短几周的时间,机器学习爱好者 Vaibhav (VB) Srivastav 表示:随着 AutoAWQ(支持 Mixtral、LLaVa 等模型的量化)最新版本的发布,现在用户可以将 Mixtral 8x7B Instruct 与 Flash Attention 2 结合使用,达到快速推理的目


原文链接:8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...