腾讯混元康战辉:将开源大模型训练代码,但数据开源意义不大

AIGC动态1个月前发布 AI前线
4 0 0

腾讯混元康战辉:将开源大模型训练代码,但数据开源意义不大

AIGC动态欢迎阅读

原标题:腾讯混元康战辉:将开源大模型训练代码,但数据开源意义不大
关键字:腾讯,模型,企鹅,能力,数据
文章来源:AI前线
内容字数:0字

内容摘要:


11 月 5 日,腾讯混元宣布最新的 MoE 模型“混元 Large“以及混元 3D 生成大模型“ Hunyuan3D-1.0”正式开源,支持企业及开发者精调、部署等不同场景的使用需求,且免费可商用。
其中,腾讯混元 Large 是目前开源领域参数规模最大、效果最好的 MoE 模型,而腾讯混元 3D 生成大模型则是业界首个同时支持文字、图像生成 3D 的开源大模型。目前,两个模型均已经在腾讯业务场景中落地应用,经过实践的检验,是面向实用场景的应用级大模型。“现在开源真的一点不晚”
在腾讯机器学习平台总监、腾讯混元大语言模型算法负责人康战辉看来,去年大模型如火如荼,开源也是百花齐放,但如今来看,还是各归各位。“底层模型不是 C 端产品,不存在入口、流量,这个我们可以沉下心来长期深耕,所以现在开源真的一点不晚。”
腾讯混元这次开源的 Large 模型总参数量 389B,激活参数量 52B ,上下文长度高达 256K。根据公开测评结果,腾讯混元 Large 在 CMMLU、MMLU、CEval、MATH 等多学科综合评测集以及中英文 NLP 任务、代码和数学等 9 大维度全面领先,超过 Ll


原文链接:腾讯混元康战辉:将开源大模型训练代码,但数据开源意义不大

联系作者

文章来源:AI前线
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...