Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

AIGC动态欢迎阅读

原标题:Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先
关键字:模型,长上,上下文,架构,下文
文章来源:Founder Park
内容字数:0字

内容摘要:


昨天,号称当前最强、最高效的长上下文模型——Jamba 1.5 系列发布。
Jamba 是第一个基于 Mamba 架构的生产级模型。Mamba 是由卡内基梅隆大学和普林斯顿大学的研究人员提出的新架构,被视为 Transformer 架构的有力挑战者。
基于评估,Jamba 1.5 拥有最长的有效上下文窗口,在同等大小的所有上下文长度中速度最快,质量得分超过 Llama 3.1 70B 和 405B。
点击关注,每天更新深度 AI 行业洞察
01AI21 Labs 是谁?AI21 Labs 由人工智能先驱 Amnon Shashua 教授(Mobileye 创始人兼首席执行官)、Yoav Shoham 教授(斯坦福大学名誉教授、前谷歌首席科学家)和 Ori Goshen(CrowdX 创始人)于 2017 年创立,目标是打造成为人类思想伙伴的人工智能系统。
2023 年 8 月,AI21 Labs 宣布完成 1.55 亿美元的 C 轮融资,投资者包括 Walden Catalyst、Pitango、SCB10X、b2venture、Samsung Next 和 Amnon Shashua


原文链接:Jamba 1.5发布,最长上下文,非Transformer架构首次成功领先

联系作者

文章来源:Founder Park
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...