和无问芯穹夏立雪聊聊:中国大模型的 Scaling Law 难题
AIGC动态欢迎阅读
原标题:和无问芯穹夏立雪聊聊:中国大模型的 Scaling Law 难题
关键字:模型,创业者,芯片,创始人,困局
文章来源:Founder Park
内容字数:1739字
内容摘要:
Scaling Law 已成为大模型进化的「不二法门」。
大模型参数量越大、数据集规模越大、算力消耗越大,性能就越好。性能越好,越受欢迎,业务拓展与运营的成本就越高。
相比较海外的大模型大厂,国内的大模型公司会面临更严峻的算力问题,资金问题、显卡限购的问题,以至于有不少人质疑,中国大模型到底有没有 Scaling Law?
成立不足一年的无问芯穹,试图回答这个问题,解决中国的算力难题。
无问芯穹联合创始人 & CEO 夏立雪认为,国内整体算力水平距离国际先进还有明显差距,光靠芯片工艺提升或是多元芯片的迭代已远远不够,需要建立一个大模型生态系统,让不同模型能自动部署到不同硬件上,让各种算力得到有效利用。
3 月 31 日,无问芯穹发布基于多芯片算力底座的无穹 Infini-AI 大模型开发与服务平台,支持了 Baichuan2、ChatGLM2、ChatGLM3、ChatGLM3 闭源模型、Llama2、Qwen、Qwen1.5 系列等共 20 多个模型,以及 AMD、壁仞、寒武纪、燧原、天数智芯、沐曦、摩尔线程、NVIDIA 等 10 余种计算卡,支持多模型与多芯片之间的软硬件联合优化
原文链接:和无问芯穹夏立雪聊聊:中国大模型的 Scaling Law 难题
联系作者
文章来源:Founder Park
作者微信:Founder-Park
作者简介:来自极客公园,专注与科技创业者聊「真问题」。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...