用视觉来做Prompt!沈向洋展示IDEA研究院新模型,无需训练或微调,开箱即用

AIGC动态10个月前发布 量子位
12 0 0

用视觉来做Prompt!沈向洋展示IDEA研究院新模型,无需训练或微调,开箱即用

AIGC动态欢迎阅读

原标题:用视觉来做Prompt!沈向洋展示IDEA研究院新模型,无需训练或微调,开箱即用

关键字:模型,知识,图谱,低空,视觉

文章来源:量子位

内容字数:3553字

内容摘要:白交 发自 凹非寺量子位 | 公众号 QbitAI用视觉来做Prompt,是种什么体验?只需在图里随便框一下,结果秒秒钟圈出同一类别!即便是那种GPT-4V都难搞定的数米粒的环节。只需要你手动拉一下框,就能找出所有米粒来。新的目标检测范式,有了!刚刚结束的IDEA年度大会上,IDEA研究院创院理事长、美国国家工程院外籍院士沈向洋展示了最新研究成果——基于视觉提示(Visual Prompt)模型T-Rex。整个流程交互,开箱即用,只需几步就可以完成。此前,Meta开源的SAM分割一切模型,直接让CV领域迎来了GPT-3时刻,但仍是基于文本prompt的范式,在应对一些复杂、罕见场景就会比较难办。现在以图换图的方式,就能轻松迎刃而解。除此之外,整场大会也是干货满满,比如Think-on-Graph知识驱动大模型、开发者平台MoonBit月兔、AI科研神器ReadPaper更新2.0、SPU机…

原文链接:点此阅读原文:用视觉来做Prompt!沈向洋展示IDEA研究院新模型,无需训练或微调,开箱即用

联系作者

文章来源:量子位

作者微信:QbitAI

作者简介:追踪人工智能新趋势,关注科技行业新突破

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...