深度相机生成点云数据的原理
2019年8月4日 16:26:40 RGB-D 图像中的rgb图片提供了像素坐标系下的x,y坐标,而深度图直接提供了相机坐标系下的$Z$坐标,也就是相机与点的距离。 根据 RGB-D 图像的信息和相机的内参,可以计算出任何一个像素点在相机坐标系下的坐标。 根据 RGB-D 图像的信息和相机的内参与外参,可以计算出任何一个像素点在世界坐标系下的坐标。 相机视野范围内,相机坐标系下的障碍物点的坐标,就是点云传感器数据,也就是相机坐标系下的点云数据。点云传感器数据可以根据 RGB-D 图像提供的坐标与相机内参算出来。 所有世界坐标系下的障碍物点的坐标,就是点云地图数据,也就是世界坐标系下的点云数据。点云地图数据可以根据RGB-D 图像提供的坐标与相机内参和外参算出来。 相机坐标系下的点云数据是根据rgb图像提供的像素坐标系下的x,y坐标(即公式中的u,v)和相机内参就能求出相机坐标系下的$X$,$Y$坐标值。同时深度图直接提供相机坐标系下的$Z$坐标值。进而得到相机坐标系下的坐标$P=\begin{bmatrix} X\ Y\ Z \end{bmatrix}$,相机坐标系下的障碍物点的坐标,就是点云传感器数据,也就是相机坐标系下的点云数据。 相机坐标系$P$与像素坐标系$P_{uv}$下的点的坐标的关系公式: $$ ZP_{uv}=Z\begin{bmatrix} u\ v\ 1