传感器与感知模块
在基于规则的自动驾驶系统中,感知模块,承担着理解车体周围环境信息的重要职责。它通过融合多种传感器数据,与定位模块共同为规划与控制模块提供准确、系统化的输入信息。正如人可以通过眼睛观察周围的环境(盲人也可以通过耳朵听声辨位),自动驾驶车辆依赖激光雷达(LiDAR)、相机(Camera)、毫米波雷达(mmWave Radar)、惯性测量单元(IMU)等多样传感器,采集三维环境数据,以实现安全智能驾驶。也就是说,传感器通过在一定位置、以一定的角度、以特定的形式收集三维世界经过映射后的信息。之后,感知算法通过对于这些映射后的信息进行算法处理,得到对于安全、智能驾驶有帮助的信息传递给规控模块以实现安全、自动驾驶的功能。
多源传感器标定
对于一般有项目或者工作经验的感知算法工程师一定绕不开的话题就是传感器的标定(calibration)。虽然这一过程比较程式化,有迹可循,但是充分理解标定过程仍然对于我们理解并掌握感知模块起到重要的作用。
一言以蔽之,标定的过程就是统一多源信号,这些信号是在特定位置、以特定角度、以特定形式对于三维世界的观测。如果没有标定,所有的信号都杂乱无章地堆砌在一起,其相对位置关系的丢失也意味着自动驾驶系统对于真实世界反映的失败。
既然提到了标定,大家肯定都想到了内参(intrinsic parameters)和外参(extrinsic parameters)标定。
内参标定的实质:解开传感器成像内在密码
内参数标定的核心在于精确描述传感器自身成像或测量过程中涉及的几何和光学特性。以单目相机为例,单目相机的成像过程符合经典的针孔模型,即把三维世界中的点通过投影映射到二维图像平面上。这个映射过程由一组参数决定,这些参数就是内参,主要包括:
- 焦距(focal length):定义从三维空间到二维图像投影如何缩放的尺度因子,决定了图像的缩放比例和视场范围。
- 主点位置(principal point):即成像平面上光轴与图像平面的交点,实际摄像头制造或安装误差会导致其偏移。
- 畸变参数(distortion coefficients):描述镜头引起的径向和切向畸变,常见的是镜头桶形或枕形畸变,会导致图像边缘变形。
内参标定的实质过程是通过已知尺寸和结构的棋盘格标定板提供先验信息,将其在不同角度、位置下的图像数据作为约束条件,采集大量图像信息,建立多组投影方程。利用优化算法(如最小二乘法)反复迭代,使得计算出的内参能够将三维棋盘格上的点精准映射到二维图像点,使得“重投影误差” — 即理论点与实际点间的距离 — 尽可能小,最终获得满足实际成像特性的内参矩阵和畸变参数。由此,摄像头的视觉模型被准确重构,实现对图像几何的正确描述。
外参标定的实质:空间坐标系之间的桥梁
外参数标定则是将不同传感器对应的坐标系统统一到同一个世界或车辆坐标系的数学变换,是多传感器感知系统的数据融合基础。每个传感器都有自己独立的坐标系,比如相机坐标系、激光雷达坐标系以及惯性测量单元( IMU )坐标系,这些坐标系的位置和方向在物理上相互独立。外参标定的目的是找出每个传感器坐标系相对于车辆参考坐标系(通常以车体中心或底盘为原点)的刚性变换关系,主要包括:
- 旋转矩阵(Rotation Matrix):描绘坐标轴的方向如何从一个坐标系旋转到另一个坐标系。
- 平移向量(Translation Vector):描述两个坐标系原点之间的空间位移。
换句话说,外参标定的实质就是计算从某个传感器视角捕获的空间点,如何变换位置和方向才能准确映射到车辆底盘坐标系下,实现所有传感器数据空间上的高度一致。典型的数学工具是三维刚性变换,即欧氏变换,保持物体大小和形状不变的同时,精准调整其空间姿态。
外参标定通常通过以下方法实现:
- 标定板对齐:多个传感器共同观测同一标定对象,利用物体特征点匹配来求解空间变换。
- 特征匹配算法:通过点云与图像特征(如边缘、角点)对齐,计算对应关系。
- 优化法:迭代最小化传感器数据之间的误差度量(如ICP算法中的点到点距离)求解变换矩阵。
内外参的协同效应:多传感器环境理解的基石
完成内参和外参标定后,车辆上的不同传感器不再是单独孤立的信息源,而是构成了一个统一协调合作的“传感器联盟”:
- 内参确保单个传感器自身观测的正确性,如相机在图像上的精准成像;
- 外参确保跨传感器数据的空间位置一致性,实现激光点云与图像特征的对齐等空间融合。
二者结合,使得车辆能够准确且高效地重建车体周围的三维环境,发挥多传感器协同感知的真正价值。正是这个统一的、多维度的“sensor model”,为自动驾驶“眼睛”提供了坚实的基础,使得后续的感知、定位和规划控制工作可靠进行。
下一步思考:深入掌握多传感器标定策略的关键问题
为了更全面理解和掌控多传感器标定流程,我们不妨先思考以下几个关键问题:
- 当前车辆上,每个传感器(激光雷达、相机、毫米波雷达、惯性测量单元)的具体规格(型号、分辨率、视场角、安装限制)是什么?
- 这些传感器究竟安装在车辆的哪些具体位置?它们的坐标系是如何相对于车辆底盘定义的?
- Autoware Universe支持哪些标定算法?
- 如何具体进行各相机的内部标定,以及激光雷达的内部和统计标定?
- 激光雷达与相机之间的外参标定有哪些常用方法?Autoware Universe中是怎么实现的?
- 多传感器的时间同步(包括时间戳和触发机制)如何影响标定的整体精度?
- Autoware Universe中都有哪些软件包和启动文件是负责传感器标定的?相关配置参数又在哪里能找到详细的文档说明?
- 标定结果通常什么格式进行存储的?怎样保证这些标定文件能被Autoware的感知和定位模块正确调用?
- 如何对标定质量进行有效验证,常见指标有哪些?
- 在RViz2中,如何将激光雷达点云投影到相机图像上,以直观地确认标定的对齐效果?
带着这些问题,我们将在后续内容中一步步探讨与实践,帮助大家系统掌握多传感器标定以及感知模块的关键技术与应用。