谷歌Gemini1.5重磅上线:最强MoE架构,100万上下文
AIGC动态欢迎阅读
原标题:谷歌Gemini1.5重磅上线:最强MoE架构,100万上下文
关键字:报告,模型,上下文,窗口,代码
文章来源:Founder Park
内容字数:5517字
内容摘要:
文章转载自「机器之心」今天,谷歌宣布推出 Gemini 1.5。Gemini 1.5 建立在谷歌基础模型开发和基础设施的研究与工程创新的基础上,包括通过新的专家混合 (MoE) 架构使 Gemini 1.5 的训练和服务更加高效。
谷歌现在推出的是用于早期测试的 Gemini 1.5 的第一个版本 ——Gemini 1.5 Pro。它是一种中型多模态模型,针对多种任务的扩展进行了优化,其性能水平与谷歌迄今为止最大的模型 1.0 Ultra 类似,并引入了长上下文理解方面的突破性实验特征。
Gemini 1.5 Pro 配备了 128000 个 token 上下文窗口。但从今天开始,少数开发人员和企业客户可以通过 AI Studio 和 Vertex AI 的私人预览版在最多 100 万个 token 的上下文窗口中进行尝试。谷歌还进行了一些优化,以改善延迟、减少计算要求并增强用户体验。
谷歌 CEO Sundar Pichai 和谷歌 DeepMind CEO Demis Hassabis 对新模型进行了专门介绍。01高效架构Gemini 1.5 建立在谷歌对 Transformer
原文链接:谷歌Gemini1.5重磅上线:最强MoE架构,100万上下文
联系作者
文章来源:Founder Park
作者微信:Founder-Park
作者简介:来自极客公园,专注与科技创业者聊「真问题」。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...