抢先体验 GPT-4o 后,我们发现了这些发布会没说的细节

AIGC动态6个月前发布 爱范儿
8 0 0

抢先体验 GPT-4o 后,我们发现了这些发布会没说的细节

AIGC动态欢迎阅读

原标题:抢先体验 GPT-4o 后,我们发现了这些发布会没说的细节
关键字:语音,视频,演示,中文,模型
文章来源:爱范儿
内容字数:6436字

内容摘要:


AI产品
的生活化
就是魔法Google 应该向 OpenAI 的营销取取经。
Sora 打出模拟物理世界的概念,GPT-4o 颠覆了我们对语音助手的想象,现实版 Her 指日可待了。
不过,Sora 预计年内发布,GPT-4o 的实时语音和视频还要等上几周。当大家被演示冲昏头脑,很可能没听到被一句带过的时间。
有多少人以为已经能和 AI 无缝畅聊又失望而归?最懂抢 Google 热度的 Sam Altman,终于发了条姗姗来迟的解释。
每个熬夜的 AI 信徒只能边焦急地等待,边上手 GPT-4o 现在可以用的功能。
GPT-4o 初体验:从惊艳到失落
GPT-4o 里的「o」指「omni(全面)」,它的特点在于可以接受文本、音频和图像的组合作为输入,更快的输出回应。
一倍速展示GPT-4o的生成速度
因此,即便现在 GPT-4o 的语音交互功能还没上线,我们只可以从聊天对话框中感受这个新模型,我们还是尽可能结合多种媒介来体验。
在发布会上,OpenAI 研究主管 Barret Zoph 在语音模式下实时让 ChatGPT 判断自己的「心情」。
那我们也来让 GPT-4o 来看图猜猜心


原文链接:抢先体验 GPT-4o 后,我们发现了这些发布会没说的细节

联系作者

文章来源:爱范儿
作者微信:ifanr
作者简介:关注明日产品的数字潮牌

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...