AIGC动态欢迎阅读
原标题:CVPR 2024 | 合成视频数据集里只有单人数据?M3Act破解人群行为标注难题
关键字:群体,数据,模型,任务,基线
文章来源:机器之心
内容字数:0字
内容摘要:
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com论文链接:https://arxiv.org/abs/2306.16772
项目链接:https://cjerry1243.github.io/M3Act/
论文标题:M3Act: Learning from Synthetic Human Group Activities
引言
通过视觉信息识别、理解人群的行为是视频监测、交互机器人、自动驾驶等领域的关键技术之一,但获取大规模的人群行为标注数据成为了相关研究的发展瓶颈。如今,合成数据集正成为一种新兴的,用于替代现实世界数据的方法,但已有研究中的合成数据集主要聚焦于人体姿态与形状的估计。它们往往只提供单个人物的合成动画视频,而这并不适用于人群的视频识别任务。在这篇文章中,作者提出了一个适用于多群组人群行为的合成
原文链接:CVPR 2024 | 合成视频数据集里只有单人数据?M3Act破解人群行为标注难题
联系作者
文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...