AIGC动态欢迎阅读
原标题:SuperBench大模型综合能力评测报告
关键字:模型,能力,代码,中文,任务
文章来源:人工智能学家
内容字数:16875字
内容摘要:
在2023年的“百模大战”中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。如何能合理地评价这些模型的能力,成为关键问题。
尽管国内外存在多个模型能力评测榜单,但它们的质量参差不齐,排名差异显著,这主要是因为评测数据和测试方法尚不成熟和科学。我们认为,好的评测方法应当具备开放性、动态性、科学性和权威性。
为提供客观、科学的评测标准,清华大学基础模型研究中心联合中关村实验室研制了SuperBench大模型综合能力评测框架,旨在推动大模型技术、应用和生态的健康发展。
SuperBench介绍请查看以往推送:2024年,如何避免「国内百模,家家第一」乱象?
近期,我们发布了2024年3月的《SuperBench大模型综合能力评测报告》。在此评测中,我们选定了14个海内外具有代表性的模型进行测试。对于闭源模型,我们选取API和网页两种调用模式中得分较高的一种进行评测。根据我们的评测结果,我们得出以下几个主要结论:● 整体来说,GPT-4系列模型和Claude-3等国外模型在多个能力上依然处于领先地位,国内头部大模型GLM-4和文
联系作者
文章来源:人工智能学家
作者微信:AItists
作者简介:致力成为权威的人工智能科技媒体和前沿科技研究机构
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...