谷歌Gemini1.5重磅上线:最强MoE架构,100万上下文

AIGC动态10个月前发布 Founder Park
28 0 0

谷歌Gemini1.5重磅上线:最强MoE架构,100万上下文

AIGC动态欢迎阅读

原标题:谷歌Gemini1.5重磅上线:最强MoE架构,100万上下文
关键字:报告,模型,上下文,窗口,代码
文章来源:Founder Park
内容字数:5517字

内容摘要:


文章转载自「机器之心」今天,谷歌宣布推出 Gemini 1.5。Gemini 1.5 建立在谷歌基础模型开发和基础设施的研究与工程创新的基础上,包括通过新的专家混合 (MoE) 架构使 Gemini 1.5 的训练和服务更加高效。
谷歌现在推出的是用于早期测试的 Gemini 1.5 的第一个版本 ——Gemini 1.5 Pro。它是一种中型多模态模型,针对多种任务的扩展进行了优化,其性能水平与谷歌迄今为止最大的模型 1.0 Ultra 类似,并引入了长上下文理解方面的突破性实验特征。
Gemini 1.5 Pro 配备了 128000 个 token 上下文窗口。但从今天开始,少数开发人员和企业客户可以通过 AI Studio 和 Vertex AI 的私人预览版在最多 100 万个 token 的上下文窗口中进行尝试。谷歌还进行了一些优化,以改善延迟、减少计算要求并增强用户体验。
谷歌 CEO Sundar Pichai 和谷歌 DeepMind CEO Demis Hassabis 对新模型进行了专门介绍。01高效架构Gemini 1.5 建立在谷歌对 Transformer


原文链接:谷歌Gemini1.5重磅上线:最强MoE架构,100万上下文

联系作者

文章来源:Founder Park
作者微信:Founder-Park
作者简介:来自极客公园,专注与科技创业者聊「真问题」。

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...