穹彻智能-上交大最新Nature子刊速递:解析深度学习驱动的视触觉动态重建方案

穹彻智能-上交大最新Nature子刊速递:解析深度学习驱动的视触觉动态重建方案

AIGC动态欢迎阅读

原标题:穹彻智能-上交大最新Nature子刊速递:解析深度学习驱动的视触觉动态重建方案
关键字:触觉,物体,应变,手套,视觉
文章来源:机器之心
内容字数:0字

内容摘要:


机器之心发布
机器之心编辑部随着人形机器人技术的迅猛发展,如何有效获取高质量的操作数据成为核心挑战。鉴于人类操作行为的复杂性和多样性,如何从真实世界中精准捕捉手与物体交互的完整状态,成为推动人形机器人操作技能学习的关键所在。面对这一挑战,穹彻智能携手上海交通大学卢策吾和刘景全团队,创新性地提出了名为 ViTaM 的视觉-触觉联合记录和追踪系统。该系统包括高密度可伸缩触觉手套和基于视觉-触觉的联合学习框架,不仅在触觉手套的设计和制造上实现了技术突破,更通过视觉与触觉的深度融合,为理解手物交互过程状态提供了全新的视角和强大工具。在人形机器人操作领域,有一个极具价值的问题:鉴于操作数据在人形操作技能学习中的重要性,如何有效地从现实世界中获取操作数据的完整状态?
如果可以,那考虑到人类庞大规模的人口和进行复杂操作的简单直观性与可扩展性,人形机器人再也不用担心没有高质量的操作数据资源了。
穹彻智能携手上海交通大学卢策吾和刘景全团队意识到,分布式触觉技术对于重建完整人类操作至关重要,当操作被遮挡时,触觉可以作为视觉的有效补充,从而一同还原出操作区域的形变状态、接触力位点和大小。因此,该团队提出了一


原文链接:穹彻智能-上交大最新Nature子刊速递:解析深度学习驱动的视触觉动态重建方案

联系作者

文章来源:机器之心
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...