训练成本不到其 6% 的「联邦大模型」,凭什么在会议场景媲美 GPT-4?

训练成本不到其 6% 的「联邦大模型」,凭什么在会议场景媲美 GPT-4?

AIGC动态欢迎阅读

原标题:训练成本不到其 6% 的「联邦模型」,凭什么在会议场景媲美 GPT-4

关键字:模型,联邦,成本,性能,场景

文章来源:AI科技评论

内容字数:6731字

内容摘要:「三个臭皮匠,顶个诸葛亮」。作者丨何思思编辑丨陈彩娴今年 8 月,在雷峰网于新加坡举办的 GAIR 大会主论坛上,前微软全球技术院士、美国双院院士黄学东用一句中国古语提出了他对大模型的发展理论预测:「三个臭皮匠,顶个诸葛亮」。当时,国内大模型研发的主流趋势是一家自研一个基座大模型,正进入如火如荼的「百模大战」中,而黄学东院士的观点则反其道而行之,认为将所有鸡蛋放在一个篮子里太危险,应该将四五家大模型的能力进行整合,每个大模型都有各自的应用场景。用一个专业词汇来概括,离开微软、加入 Zoom 担任 CTO 后,黄学东在 Zoom 内部推崇的大模型研发路线是「联邦大模型」——将 OpenAI、Anthropic AI、谷歌、Meta 等等科技巨头的大语言模型集合在一起,形成 Zoom 的 AI 底座,由此以更低的成本、实现更好的效果。近日,黄学东团队经过一系列的研究与实验,验证了 8 月对「联…

原文链接:点此阅读原文:训练成本不到其 6% 的「联邦大模型」,凭什么在会议场景媲美 GPT-4?

联系作者

文章来源:AI科技评论

作者微信:aitechtalk

作者简介:雷峰网旗下AI新媒体。聚焦AI前沿研究,关注AI工程落地。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...