來源:公眾號|3D視覺工坊(系投稿)作者:李城「3D視覺工坊」技術交流群已經成立,目前大約有12000人,方向主要涉及3D視覺、CV&深度學習、SLAM、三維重建、點雲後處理、自動駕駛、CV入門、三維測量、VR/AR、3D人臉識別、醫療影像、缺陷檢測、行人重識別、目標跟蹤、視覺產品落地、視覺競賽、車牌識別、硬體選型、學術交流、求職交流、ORB-SLAM系列源碼交流、深度估計等。QQ群「3D視覺研習社」,群號:574432628。
bundle adjustment 的歷史發展
bundle adjustment,中文名稱是光束法平差,經典的BA目的是優化相機的pose和landmark,其在SfM和SLAM 領域中扮演者重要角色.目前大多數書籍或者參老文獻將其翻譯成"捆綁調整"是不太嚴謹的做法.bundle adjustment 最早是19世紀由搞大地測量學(測繪學科)的人提出來的,19世紀中期的時候,geodetics的學者就開始研究large scale triangulations(大型三角剖分)。20世紀中期,隨著camera和computer的出現,photogrammetry(攝影測量學)也開始研究adjustment computation,所以他們給起了個名字叫bundle adjustment(隸屬攝影測量學科前輩的功勞)。21世紀前後,robotics領域開始興起SLAM,最早用的recursive bayesian filter(遞歸貝葉斯濾波),後來把問題搞成個graph然後用least squares方法求解,bundle adjusment歷史發展圖如下:
bundle adjustment 其本質還是離不開最小二乘原理(Gauss功勞)(幾乎所有優化問題其本質都是最小二乘),目前bundle adjustment 優化框架最為代表的是ceres solver和g2o(這裡主要介紹ceres solver).據說ceres的命名是天文學家Piazzi閒暇無事的時候觀測一顆沒有觀測到的星星,最後用least squares算出了這個小行星的軌道,故將這個小行星命名為ceres.
Bundle adjustment 的算法理論
觀測值:像點坐標 優化量(平差量):pose 和landmark 因為一旦涉及平差,就必定有如下公式:觀測值+觀測值改正數=近似值+近似值改正數,那麼bundle adjustment 的公式還是從共線條件方程出發:
四種Bundle adjustment 算法代碼
這裡代碼主要從四個方面來介紹:
優化相機內參及畸變係數,相機的pose(6dof)和landmark 代價函數寫法如下:template <typename CameraModel>class BundleAdjustmentCostFunction { public: explicit BundleAdjustmentCostFunction(const Eigen::Vector2d& point2D) : observed_x_(point2D(0)), observed_y_(point2D(1)) {}//構造函數傳入的是觀測值 static ceres::CostFunction* Create(const Eigen::Vector2d& point2D) { return (new ceres::AutoDiffCostFunction< BundleAdjustmentCostFunction<CameraModel>, 2, 4, 3, 3, CameraModel::kNumParams>( new BundleAdjustmentCostFunction(point2D))); }//優化量:2代表誤差方程個數;4代表pose中的姿態信息,用四元數表示;3代表pose中的位置信息;3代表landmark自由度;CameraModel::kNumParams是相機內參和畸變係數,其取決於相機模型是what// opertator 重載函數的參數即是待優化的量 template <typename T> bool operator()(const T* const qvec, const T* const tvec, const T* const point3D, const T* const camera_params, T* residuals) const { // Rotate and translate. T projection[3]; ceres::UnitQuaternionRotatePoint(qvec, point3D, projection); projection[0] += tvec[0]; projection[1] += tvec[1]; projection[2] += tvec[2]; // Project to image plane. projection[0] /= projection[2]; projection[1] /= projection[2]; // Distort and transform to pixel space. CameraModel::WorldToImage(camera_params, projection[0], projection[1], &residuals[0], &residuals[1]); // Re-projection error. residuals[0] -= T(observed_x_); residuals[1] -= T(observed_y_); return true; } private: const double observed_x_; const double observed_y_;};寫好了代價函數,下面就是需要把參數都加入殘差塊,讓ceres自動求導,代碼如下:
ceres::Problem problem;ceres::CostFunction* cost_function = nullptr; ceres::LossFunction * p_LossFunction = ceres_options_.bUse_loss_function_ ? new ceres::HuberLoss(Square(4.0)) : nullptr; // 關於為何使用損失函數,因為現實中並不是所有觀測過程中的噪聲都服從 //gaussian noise的(或者可以說幾乎沒有), //遇到有outlier的情況,這些方法非常容易掛掉, //這時候就得用到robust statistics裡面的 //robust cost(*cost也可以叫做loss, 統計學那邊喜歡叫risk) function了, //比較常用的有huber, cauchy等等。cost_function = BundleAdjustmentCostFunction<CameraModel>::Create(point2D.XY()); //將優化量加入殘差塊problem_->AddResidualBlock(cost_function, p_LossFunction, qvec_data, tvec_data, point3D.XYZ().data(), camera_params_data); 如上,case1 的bundle adjustment 就搭建完成!
優化相機內參及畸變係數,pose subset parameterization(pose 信息部分參數優化)和3D landmark,當 只優化姿態信息時候,problem需要添加的代碼如下: //這裡姿態又用歐拉角表示 map_poses[indexPose] = {angleAxis[0], angleAxis[1], angleAxis[2], t(0), t(1), t(2)}; double * parameter_block = &map_poses.at(indexPose)[0]; problem.AddParameterBlock(parameter_block, 6); std::vector<int> vec_constant_extrinsic; vec_constant_extrinsic.insert(vec_constant_extrinsic.end(), {3,4,5}); if (!vec_constant_extrinsic.empty()) { // 主要用到ceres的SubsetParameterization函數 ceres::SubsetParameterization *subset_parameterization = new ceres::SubsetParameterization(6, vec_constant_extrinsic); problem.SetParameterization(parameter_block, subset_parameterization); } 優化相機內參及畸變係數,pose subset parameterization(pose 信息部分參數優化)和3D landmark,當 只優化位置信息時候,problem需要添加的代碼如下(同上面代碼,只需修改一行): //這裡姿態又用歐拉角表示 map_poses[indexPose] = {angleAxis[0], angleAxis[1], angleAxis[2], t(0), t(1), t(2)}; double * parameter_block = &map_poses.at(indexPose)[0]; problem.AddParameterBlock(parameter_block, 6); std::vector<int> vec_constant_extrinsic; vec_constant_extrinsic.insert(vec_constant_extrinsic.end(), {1,2,3}); if (!vec_constant_extrinsic.empty()) { ceres::SubsetParameterization *subset_parameterization = new ceres::SubsetParameterization(6, vec_constant_extrinsic); problem.SetParameterization(parameter_block, subset_parameterization); } 優化相機內參及畸變係數,pose 是常量不優化 和3D landmark. 代價函數寫法如下://相機模型template <typename CameraModel> class BundleAdjustmentConstantPoseCostFunction { public: BundleAdjustmentConstantPoseCostFunction(const Eigen::Vector4d& qvec, const Eigen::Vector3d& tvec, const Eigen::Vector2d& point2D) : qw_(qvec(0)), qx_(qvec(1)), qy_(qvec(2)), qz_(qvec(3)), tx_(tvec(0)), ty_(tvec(1)), tz_(tvec(2)), observed_x_(point2D(0)), observed_y_(point2D(1)) {} static ceres::CostFunction* Create(const Eigen::Vector4d& qvec, const Eigen::Vector3d& tvec, const Eigen::Vector2d& point2D) { return (new ceres::AutoDiffCostFunction< BundleAdjustmentConstantPoseCostFunction<CameraModel>, 2, 3, CameraModel::kNumParams>( new BundleAdjustmentConstantPoseCostFunction(qvec, tvec, point2D))); } template <typename T> bool operator()(const T* const point3D, const T* const camera_params, T* residuals) const { const T qvec[4] = {T(qw_), T(qx_), T(qy_), T(qz_)}; // Rotate and translate. T projection[3]; ceres::UnitQuaternionRotatePoint(qvec, point3D, projection); projection[0] += T(tx_); projection[1] += T(ty_); projection[2] += T(tz_); // Project to image plane. projection[0] /= projection[2]; projection[1] /= projection[2]; // Distort and transform to pixel space. CameraModel::WorldToImage(camera_params, projection[0], projection[1], &residuals[0], &residuals[1]); // Re-projection error. residuals[0] -= T(observed_x_); residuals[1] -= T(observed_y_); return true; } private: const double qw_; const double qx_; const double qy_; const double qz_; const double tx_; const double ty_; const double tz_; const double observed_x_; const double observed_y_;};接下來problem 加入殘差塊代碼如下:
ceres::Problem problem;ceres::CostFunction* cost_function = nullptr; ceres::LossFunction * p_LossFunction = ceres_options_.bUse_loss_function_ ? new ceres::HuberLoss(Square(4.0)) : nullptr; // 關於為何使用損失函數,因為現實中並不是所有觀測過程中的噪聲都服從 //gaussian noise的(或者可以說幾乎沒有), //遇到有outlier的情況,這些方法非常容易掛掉, //這時候就得用到robust statistics裡面的 //robust cost(*cost也可以叫做loss, 統計學那邊喜歡叫risk) function了, //比較常用的有huber, cauchy等等。cost_function = BundleAdjustmentConstantPoseCostFunction<CameraModel>::Create( \ image.Qvec(), image.Tvec(), point2D.XY());//觀測值輸入 //將優化量加入殘差塊 problem_->AddResidualBlock(cost_function, loss_function, \ point3D.XYZ().data(), camera_params_data);//被優化量加入殘差-3D點和相機內參 以上就是四種BA 的case 當然還可以有很多變種,比如gps約束的BA(即是附有限制條件的間接平差),比如 固定3D landmark,優化pose和相機參數和畸變係數
參考資料
colmap openmvg 原始碼,github 地址:https://github.com/openMVG/openMVGhttps://github.com/colmap/colmap單傑. 光束法平差簡史與概要. 武漢大學學報·信息科學版, 2018, 43(12): 1797-1810.備註:作者也是我們「3D視覺從入門到精通」特邀嘉賓:一個超乾貨的3D視覺學習社區
本文僅做學術分享,如有侵權,請聯繫刪文。