第九讲 0.3

匿名 (未验证) 提交于 2019-12-03 00:26:01



当然同时增加的还有g2o相关的头文件和源文件:g2o_types.h和g2o_types.cpp




EdgeProjectXYZ2UVPoseOnly

0.3版本只用到了第三种,也就是3D2D的重投影误差,所以只说一下第三种,其他两种也差不多:

#ifndef MYSLAM_G2O_TYPES_H #define MYSLAM_G2O_TYPES_H  #include "myslam/common_include.h" #include "camera.h"  #include <g2o/core/base_vertex.h> #include <g2o/core/base_unary_edge.h> #include <g2o/core/block_solver.h> #include <g2o/core/optimization_algorithm_levenberg.h> #include <g2o/types/sba/types_six_dof_expmap.h> #include <g2o/solvers/dense/linear_solver_dense.h> #include <g2o/core/robust_kernel.h> #include <g2o/core/robust_kernel_impl.h>  namespace myslam { class EdgeProjectXYZRGBD : public g2o::BaseBinaryEdge<3, Eigen::Vector3d, g2o::VertexSBAPointXYZ, g2o::VertexSE3Expmap> {...};  // only to optimize the pose, no point class EdgeProjectXYZRGBDPoseOnly: public g2o::BaseUnaryEdge<3, Eigen::Vector3d, g2o::VertexSE3Expmap > {...};  class EdgeProjectXYZ2UVPoseOnly: public g2o::BaseUnaryEdge<2, Eigen::Vector2d, g2o::VertexSE3Expmap > { public:     EIGEN_MAKE_ALIGNED_OPERATOR_NEW      //还是边类型定义中最核心的老两样:     //误差计算函数,实现误差计算方法     virtual void computeError();     //线性增量函数,也就是雅克比矩阵J的计算方法     virtual void linearizeOplus();      //读写功能函数,这里没用到,所以只是定义了,并没有在源文件中实现。     virtual bool read( std::istream& in ){}     virtual bool write(std::ostream& os) const {};      //把三维点和相机模型写成员变量,方便误差计算和J计算,因为都需要这两项数据     Vector3d point_;     Camera* camera_; };  }  #endif // MYSLAM_G2O_TYPES_H
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47

g2o_types.cpp中实现了头文件中定义的函数,也是对应的有三种,这里只说一下用到的第三种:

#include "myslam/g2o_types.h"  namespace myslam { //省略的前两种对于误差计算和J函数的实现。 ... //第三种,重投影误差 void EdgeProjectXYZ2UVPoseOnly::computeError() {     //顶点数组中取出顶点,转换成位姿指针类型,其实左边的pose类型可以写为auto     const g2o::VertexSE3Expmap* pose = static_cast<const g2o::VertexSE3Expmap*> ( _vertices[0] );     //误差计算,测量值减去估计值,也就是重投影误差     //估计值计算方法是T*p,得到相机坐标系下坐标,然后在利用camera2pixel()函数得到像素坐标。     _error = _measurement - camera_->camera2pixel(pose->estimate().map(point_) ); }  void EdgeProjectXYZ2UVPoseOnly::linearizeOplus() {     /**      * 这里说一下整体思路:      * 重投影误差的雅克比矩阵在书中P164页式7.45已经呈现,所以这里就是直接构造,      * 构造时发现需要变换后的空间点坐标,所以需要先求出。      */      //首先还是从顶点取出位姿     g2o::VertexSE3Expmap* pose = static_cast<g2o::VertexSE3Expmap*> ( _vertices[0] );     //这由位姿构造一个四元数形式T     g2o::SE3Quat T ( pose->estimate() );     //用T求得变换后的3D点坐标。T*p     Vector3d xyz_trans = T.map ( point_ );     //OK,到这步,变换后的3D点xyz坐标就分别求出来了,后面的z平方,纯粹是为了后面构造J时方便定义的,因为需要多处用到     double x = xyz_trans[0];     double y = xyz_trans[1];     double z = xyz_trans[2];     double z_2 = z*z;      //直接各个元素构造J就好了,对照式7.45是一模一样的,2*6的矩阵。     _jacobianOplusXi ( 0,0 ) =  x*y/z_2 *camera_->fx_;     _jacobianOplusXi ( 0,1 ) = - ( 1+ ( x*x/z_2 ) ) *camera_->fx_;     _jacobianOplusXi ( 0,2 ) = y/z * camera_->fx_;     _jacobianOplusXi ( 0,3 ) = -1./z * camera_->fx_;     _jacobianOplusXi ( 0,4 ) = 0;     _jacobianOplusXi ( 0,5 ) = x/z_2 * camera_->fx_;      _jacobianOplusXi ( 1,0 ) = ( 1+y*y/z_2 ) *camera_->fy_;     _jacobianOplusXi ( 1,1 ) = -x*y/z_2 *camera_->fy_;     _jacobianOplusXi ( 1,2 ) = -x/z *camera_->fy_;     _jacobianOplusXi ( 1,3 ) = 0;     _jacobianOplusXi ( 1,4 ) = -1./z *camera_->fy_;     _jacobianOplusXi ( 1,5 ) = y/z_2 *camera_->fy_; } }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52


第一,顶点是顶点,位姿是位姿。虽然上面的顶点表示的就是位姿,但是,两种是不同的类型,所以使用时要进行类型转换:

g2o::VertexSE3Expmap* pose = static_cast<g2o::VertexSE3Expmap*> ( _vertices[0] );
  • 1

取出顶点,将其强制类型转换为位姿类型。

第二是误差计算时的那句:

_error = _measurement - camera_->camera2pixel(pose->estimate().map(point_) );
  • 1

里面有个map()函数。

看一下这个函数的源码:

      Vector3D map(const Vector3D & xyz) const       {         return _r*xyz + _t;       }
  • 1
  • 2
  • 3
  • 4


在g2o中,用SE3Quat类型表示变换T,此类型中有个成员函数就是map(),作用为对一个3D点进行坐标变换,例如:pose.map(a_point),就求得了变换后的坐标(看起来比较别扭而已,不如*直观)。

最后看一下poseEstimationPNP()函数中,用PNP求出T_c_r_estimated_后,增加的g2o部分,很常规,就是初始化,增加顶点和边,然后开始优化,最后用优化的结果对T_c_r_estimated_更新。

...     // using bundle adjustment to optimize the pose      //初始化,都是老套路,注意由于更新所需要的unique指针问题。     typedef g2o::BlockSolver<g2o::BlockSolverTraits<6,2>> Block;     Block::LinearSolverType* linearSolver = new g2o::LinearSolverDense<Block::PoseMatrixType>();     Block* solver_ptr = new Block( std::unique_ptr<Block::LinearSolverType>(linearSolver) );     g2o::OptimizationAlgorithmLevenberg* solver = new g2o::OptimizationAlgorithmLevenberg ( std::unique_ptr<Block>(solver_ptr) );     g2o::SparseOptimizer optimizer;     optimizer.setAlgorithm ( solver );      //添加顶点,一帧只有一个位姿,也就是只有一个顶点     g2o::VertexSE3Expmap* pose = new g2o::VertexSE3Expmap();     pose->setId ( 0 );     pose->setEstimate ( g2o::SE3Quat (         T_c_r_estimated_.rotation_matrix(),          T_c_r_estimated_.translation()     ) );     optimizer.addVertex ( pose );      // edges边有许多,每个特征点都对应一个重投影误差,也就有一个边。     for ( int i=0; i<inliers.rows; i++ )     {         int index = inliers.at<int>(i,0);         // 3D -> 2D projection         EdgeProjectXYZ2UVPoseOnly* edge = new EdgeProjectXYZ2UVPoseOnly();         edge->setId(i);         edge->setVertex(0, pose);         edge->camera_ = curr_->camera_.get();         edge->point_ = Vector3d( pts3d[index].x, pts3d[index].y, pts3d[index].z );         edge->setMeasurement( Vector2d(pts2d[index].x, pts2d[index].y) );         edge->setInformation( Eigen::Matrix2d::Identity() );         optimizer.addEdge( edge );     }      //开始优化     optimizer.initializeOptimization();     //设置迭代次数     optimizer.optimize(10);      //这步就是将优化后的结果,赋值给T_c_r_estimated_     T_c_r_estimated_ = SE3 (         pose->estimate().rotation(),         pose->estimate().translation()     );     ...
文章来源: 第九讲 0.3
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!