人大系多模态模型迈向AGI:首次实现自主更新,写真视频生成力压Sora

AIGC动态6个月前发布 机器之心
14 0 0

人大系多模态模型迈向AGI:首次实现自主更新,写真视频生成力压Sora

AIGC动态欢迎阅读

原标题:人大系多模态模型迈向AGI:首次实现自主更新,写真视频生成力压Sora
关键字:模型,任务,智能,视频,数据
文章来源:机器之心
内容字数:7375字

内容摘要:


机器之心发布
机器之心编辑部在 4 月 27 日召开的中关村论坛通用人工智能平行论坛上,人大系初创公司智子引擎隆重发布全新的多模态大模型 Awaker 1.0,向 AGI 迈出至关重要的一步。
相对于智子引擎前代的 ChatImg 序列模型,Awaker 1.0 采用全新的 MOE 架构并具备自主更新能力,是业界首个实现 “真正” 自主更新的多模态大模型。
在视觉生成方面,Awaker 1.0 采用完全自研的视频生成底座 VDT,在写真视频生成上取得好于 Sora 的效果,打破大模型 “最后一公里” 落地难的困境。Awaker 1.0 是一个将视觉理解与视觉生成进行超级融合的多模态大模型。在理解侧,Awaker 1.0 与数字世界和现实世界进行交互,在执行任务的过程中将场景行为数据反哺给模型,以实现持续更新与训练;在生成侧,Awaker 1.0 可以生成高质量的多模态内容,对现实世界进行模拟,为理解侧模型提供更多的训练数据。
尤其重要的是,因为具备 “真正” 的自主更新能力,Awaker 1.0 适用于更广泛的行业场景,能够解决更复杂的实际任务,比如 AI Agent、具身智能、综合治


原文链接:人大系多模态模型迈向AGI:首次实现自主更新,写真视频生成力压Sora

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...