皮盼资讯网移动版

皮盼资讯网 > 潮流时尚 >

位姿参数辨识系统(5)

位姿解算流程图如图17所示,输入相机内参矩阵及畸变系数,提取匹配后的2D特征点以及对应的3D坐标值,求解相机姿态计算欧拉角及坐标值,输出相对位置及转角[17]。

3.4初步实验结果

利用传统方式和深度学习两种方式进行特征点匹配和位姿解算,取第一帧图像上的左太阳帆板左上角为世界坐标系原点(0,0,0),并已知模型外形尺寸。在软件上操作仿真模型摆出相应姿态,记为理论值;分别采用传统和深度学习两种方式得到的关键点进行位姿解算,位姿解算结果图如图18-23所示。

虚线是理论值,绿色为传统方法测量值,红色为深度学习方法测量值,传统方法和深度学习两种方法解算出的位姿结果与理论值都大致吻合。但是传统方法在第七帧出现了坏点,可能存在特征误匹配现象,深度学习方式暂未发现误匹配点。深度学习方法较传统方法与理论值的差距更小,与理论值更加吻合,因此可以得出结论,在空间目标的特征提取和位姿解算任务上,深度学习方法比传统方法在准确性方面上要更好一些。

4. 研究结论

本文主要研究了空间目标位姿参数测量问题。空间目标具有模型未知,不能依靠本体传感器,不能进行信息交互等特点,对其进行动力学参数测量需要应用外部测量手段。基于机器视觉的测量方法具有体积小、非接触、成本低等优点,现在是空间中的主要测量方式之一。本文基于机器视觉对空间目标进行了位姿参数辨识,并进行了相关实验及对比分析。

本文得到的主要研究成果如下:

(1) 相机模型建立及相机标定

介绍了相机测量模型包含坐标系定义、刚体变换参数表示、相机成像模型、坐标系相互转换关系等,并在仿真环境和实物相机分别进行了相机标定。

(2)基于深度神经网络的空间目标语义分割及关键点提取

构建了深度学习方法进行语义分割及关键点提取网络,利用仿真环境搭建的动力学模型得到空间目标图片,在预训练权重的基础上进行微调,使其能够对空间目标进行图像语义分割及关键点提取。

(3)空间目标位姿解算算法

构建了两种位姿估计方法:基于传统方法的位姿解算算法和基于深度学习的位姿解算算法。实验结果表明,两种方式均可以实现位姿参数的测量,传统方法速度更快,深度学习方法解算精度更高。

(责编:刘扬、赵光霞)

(责任编辑:admin)