EMMA

AI工具1个月前发布 AI工具集
31 0 0

EMMA是Waymo推出的一款先进的端到端自动驾驶多模态模型,基于Gemini模型开发。该系统能够将原始相机传感器数据直接转换为驾驶相关的输出,如路径规划、对象识别和道路元素图。EMMA还将非传感器输入和输出转化为自然语言文本,借助预训练的巨大语言模型积累的世界知识,在统一的语言空间中高效地处理多种驾驶任务。

EMMA是什么

EMMA是Waymo基于Gemini模型推出的端到端自动驾驶多模态模型,能够将原始相机传感器数据直接映射为特定于驾驶的输出,包括规划轨迹、感知周围对象和构建道路图元素。该模型通过将非传感器输入和输出以自然语言文本的形式呈现,运用预训练的大型语言模型的丰富知识,在一个统一的语言空间内协同处理多种驾驶任务。EMMA在nuScenes规划和Waymo开放数据集上表现出色,但其也存在一些限制,例如对图像帧处理数量的限制、缺乏精确的3D传感器集成以及较高的计算成本。此模型旨在推动自动驾驶模型架构的进步,提升系统在复杂场景中的泛化与推理能力。

EMMA

EMMA的主要功能

  • 端到端规划
    • 从原始相机传感器数据直接生成自动驾驶车辆的未来轨迹。
    • 将轨迹转化为车辆控制动作,例如加速和转向。
  • 3D对象检测:以摄像头为主要传感器,检测和识别周围的物体,包括车辆、行人和骑行者。
  • 道路图元素识别:识别和构建道路图,包括车道线、交通标志等关键道路元素。
  • 场景理解:理解整体场景的上下文,包括临时道路阻塞及其他影响驾驶的因素。
  • 多任务处理:在统一的语言空间中协同处理多种驾驶任务,通过任务特定的提示生成输出。
  • 链式思维推理:通过链式思维推理增强模型的决策能力和可解释性,使其在预测未来轨迹时能够阐明决策依据。

EMMA的技术原理

  • 多模态大型语言模型(MLLMs):基于预训练的MLLMs,如Gemini,该模型在广泛的互联网数据上训练,具备丰富的“世界知识”。
  • 自然语言表示:所有非传感器输入和输出(如导航指令、车辆状态、轨迹和3D位置)以自然语言文本形式表示。
  • 视觉问题回答(VQA):将驾驶任务重新构想为VQA问题,利用Gemini的预训练能力,保留广泛的世界知识。
  • 自回归模型:采用自回归Gemini模型处理交错的文本和视觉输入,生成文本输出。
  • 端到端训练:通过端到端训练,从传感器数据直接生成驾驶动作,避免模块间的符号化接口需求。

EMMA的项目地址

EMMA的应用场景

  • 城市与郊区驾驶:EMMA能够处理复杂的城市交通环境及郊区道路条件,提供实时的驾驶决策和轨迹规划。
  • 交通拥堵与复杂交叉口:在交通拥堵或复杂交叉口场景中,EMMA能够进行有效的路径规划和决策,确保安全高效的导航。
  • 特殊天气与光照条件:EMMA适应多种天气与光照条件,如雨、雾或夜间驾驶,保持稳定的驾驶性能。
  • 施工区域与临时道路封闭:基于其场景理解能力,EMMA能够识别施工区域和临时道路封闭情况,并做出相应的驾驶调整。
  • 紧急情况响应:在遇到紧急情况时,如突然出现的障碍物或动物,EMMA能够迅速反应,采取避让或减速的措施。
阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...