AIGC动态欢迎阅读
原标题:杀疯了!Meta开源SAM-2:可商用,随意分割视频、图像
关键字:侵权,记忆,编码器,模型,提示
文章来源:智猩猩AGI
内容字数:0字
内容摘要:
9月6-7日,2024全球AI芯片峰会将在北京召开。目前,AMD人工智能事业部高级总监王宏强,清华大学交叉信息研究院助理教授、北极雄芯创始人马恺声,珠海芯动力创始人兼CEO李原,“吴文俊2023人工智能芯片专项奖”第一完成人、锋行致远创始人兼CEO孙唐等嘉宾已确认出席。欢迎报名或购票参会~2023年4月5日,Meta首次开源了视觉分割模型SAM,能够根据交互和自动化两种方式任意切割视频、图像中的所有元素,当时这个模型被誉为计算机视觉界的“ChatGPT时刻”。目前,SAM在Github超过45000颗星。
今天凌晨,Meta在SAM的基础之上对架构、功能以及准确率等进行大量更新,正式开源了SAM-2,并支持Apache 2.0规则的商业化。这也是继上周Llama 3.1之后,再次开源重磅模型。
同时Meta还分享了SAM-2的训练数据集SA-V,包含了51,000真实世界视频和超过600,000个时空遮罩,这比其他同类数据集大50倍左右,可帮助开发人员构建更好的视觉模型。
SAM-2开源地址:https://github.com/facebookresearch/segment-any
原文链接:杀疯了!Meta开源SAM-2:可商用,随意分割视频、图像
联系作者
文章来源:智猩猩AGI
作者微信:
作者简介:
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...