小模型也可以「分割一切」,Meta改进SAM,参数仅为原版5%

AIGC动态11个月前发布 机器之心
23 0 0

小模型也可以「分割一切」,Meta改进SAM,参数仅为原版5%

AIGC动态欢迎阅读

原标题:小模型也可以「分割一切」,Meta改进SAM,参数仅为原版5%

关键字:编码器,图像,模型,特征,任务

文章来源:机器之心

内容字数:6437字

内容摘要:机器之心报道编辑:陈萍、蛋酱对于 2023 年的计算机视觉领域来说,「」(Segment Anything Model)是备受关注的一项研究进展。Meta四月份发布的「分割一切模型(SAM)」效果,它能很好地自动分割图像中的所有内容Segment Anything 的关键特征是基于提示的视觉 Transformer(ViT)模型,该模型是在一个包含来自 1100 万张图像的超过 10 亿个掩码的视觉数据集 SA-1B 上训练的,可以分割给定图像上的任何目标。这种能力使得 SAM 成为视觉领域的基础模型,并在超出视觉之外的领域也能产生应用价值。尽管有上述优点,但由于 SAM 中的 ViT-H 图像编码器有 632M 个参数(基于提示的解码器只需要 387M 个参数),因此实际使用 SAM 执行任何分割任务的计算和内存成本都很高,这对实时应用来说具有挑战性。后续,研究者们也提出了一些改进策略:…

原文链接:点此阅读原文:小模型也可以「分割一切」,Meta改进SAM,参数仅为原版5%

联系作者

文章来源:机器之心

作者微信:almosthuman2014

作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...