AIGC动态欢迎阅读
原标题:3B模型新SOTA!开源AI让日常调用不同大模型更简单
关键字:模型,节点,语言,工作,任务
文章来源:量子位
内容字数:0字
内容摘要:
NEXA AI 投稿量子位 | 公众号 QbitAI大模型,大,能力强,好用!
但单一大模型在算力、数据和能耗方面面临巨大的限制,且消耗大量资源。
而且目前最强大的模型大多为闭源,对AI开发的速度、安全性和公平性有所限制。
AI大模型的未来发展趋势,需要怎么在单一大模型和多个专门化小模型之间做平衡和选择?
针对如此现状,两位斯坦福校友创办的NEXA AI,提出了一种新的方法:
采用functional token整合了多个开源模型,每个模型都针对特定任务进行了优化。
他们开发了一个名叫Octopus v4的模型,利用functional token智能地将用户查询引导至最合适的垂直模型,并重新格式化查询以实现最佳性能。
介绍一下,Octopus v4是前代系列模型的演化,擅长选择和参数理解与重组。
此外,团队还探索了使用图作为一种多功能数据结构,有效地协调多个开源模型,利用Octopus模型和functional token的能力。
通过激活约100亿参数的模型,Octopus v4在同级别模型中实现了74.8的SOTA MMLU分数。
Octopus系列模型这里要重点介绍一下Octo
原文链接:3B模型新SOTA!开源AI让日常调用不同大模型更简单
联系作者
文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...