视觉模型底座超越OpenAI,格灵深瞳开启多模态落地的Scaling Law

视觉模型底座超越OpenAI,格灵深瞳开启多模态落地的Scaling Law

AIGC动态欢迎阅读

原标题:视觉模型底座超越OpenAI,格灵深瞳开启多模态落地的Scaling Law
关键字:模型,视觉,数据,图像,场景
文章来源:量子位
内容字数:0字

内容摘要:


梦晨 发自 凹非寺量子位 | 公众号 QbitAI大模型时代,有个大家普遍焦虑的问题:如何落地?往哪落地?
聚光灯下最耀眼的OpenAI,最近也先被曝出资金告急,后又寻求新一轮10亿美元新融资。
但在中国,有这么一家公司:
它的多模态大模型不仅在多个权威数据集上的表现超过了OpenAI,更是用一个个落地案例告诉大家,大模型并不仅仅包括大语言模型,视觉大模型和多模态大模型在产业界有更大的想象空间。
这家公司就是格灵深瞳,它曾因“A股AI视觉第一股”的标签为人熟知,如今以新姿态再次刷新外界认知:大模型落地先行者。
银行安防领域,AI算法规模化应用,落地10000+银行网点
城市管理领域,交通治理业务在10余个省市开展试点及落地应用
商业零售领域,智慧案场解决方案落地全国20余省市近1000个项目
体育教育领域,相关产品方案已在全国多个校园试点应用,为100000+名在校师生提供日常教学支持与考试服务
……
取得这样的成绩背后,离不开格灵深瞳在大模型技术层面取得的进展:
自研视觉大模型Unicom v2,在多业务数据集上平均优于OpenAI的CLIP、Meta的DINOv2和苹果的DFN


原文链接:视觉模型底座超越OpenAI,格灵深瞳开启多模态落地的Scaling Law

联系作者

文章来源:量子位
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...