AIGC动态欢迎阅读
原标题:用视觉来做Prompt!沈向洋展示IDEA研究院新模型,无需训练或微调,开箱即用
文章来源:量子位
内容字数:3553字
内容摘要:白交 发自 凹非寺量子位 | 公众号 QbitAI用视觉来做Prompt,是种什么体验?只需在图里随便框一下,结果秒秒钟圈出同一类别!即便是那种GPT-4V都难搞定的数米粒的环节。只需要你手动拉一下框,就能找出所有米粒来。新的目标检测范式,有了!刚刚结束的IDEA年度大会上,IDEA研究院创院理事长、美国国家工程院外籍院士沈向洋展示了最新研究成果——基于视觉提示(Visual Prompt)模型T-Rex。整个流程交互,开箱即用,只需几步就可以完成。此前,Meta开源的SAM分割一切模型,直接让CV领域迎来了GPT-3时刻,但仍是基于文本prompt的范式,在应对一些复杂、罕见场景就会比较难办。现在以图换图的方式,就能轻松迎刃而解。除此之外,整场大会也是干货满满,比如Think-on-Graph知识驱动大模型、开发者平台MoonBit月兔、AI科研神器ReadPaper更新2.0、SPU机…
原文链接:点此阅读原文:用视觉来做Prompt!沈向洋展示IDEA研究院新模型,无需训练或微调,开箱即用
联系作者
文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...