突破不可解释性!视频异常新检测框架精度90.67%拿下SOTA|华科&百度&密歇根大学

AIGC动态4个月前发布 量子位
9 0 0

突破不可解释性!视频异常新检测框架精度90.67%拿下SOTA|华科&百度&密歇根大学

AIGC动态欢迎阅读

原标题:突破不可解释性!视频异常新检测框架精度90.67%拿下SOTA|华科&百度&密歇根大学
关键字:视频,方法,事件,数据,团队
文章来源:量子位
内容字数:0字

内容摘要:


HolmesVAD团队 投稿量子位 | 公众号 QbitAI大模型当上福尔摩斯,学会对视频异常进行检测了。
来自华中科技大学、百度、密歇根大学的研究团队,提出了一种可解释性的视频异常检测框架,名为Holmes-VAD。
Holmes-VAD不仅能给出精确的视频异常定位,还能够对检测到的异常提供解释和分析。
比如,给它看一段监控视频,询问它视频中是否有任何异常迹象,它立马就能识别出:
有异常,一辆白色面包车正在路上行驶,突然一辆摩托车出现并撞上了面包车,造成了一起严重的事故。
爆炸场景也不在话下:
视频显示在沙漠地区发生了一次大规模爆炸,导致大量烟尘飘到空中。这是异常的,因为在自然环境中,如此突然和强烈的能量释放是一种意料之外且不寻常的事件。
像是打篮球互相追逐竞争这样婶儿的具有迷惑性的视频,它也能正确识别并作出解释:
视频中展示的是一场典型的篮球比赛,球员们在一个维护良好的球场上比赛。这是一个常见且熟悉的体育赛事场景,没有任何不寻常或可疑的活动。
Holmes-VAD基于视频多模态大模型微调,并利用精确的时序监督和丰富的多模态指令来实现准确的异常定位和全面的解释,在监控视频安全分析、视


原文链接:突破不可解释性!视频异常新检测框架精度90.67%拿下SOTA|华科&百度&密歇根大学

联系作者

文章来源:量子位
作者微信:QbitAI
作者简介:追踪人工智能新趋势,关注科技行业新突破

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...