研究目的
提出一种新方法,能从同步视频序列中同时估计平面标记的3D构型、多相机的位姿外参以及标记与相机间的相对位姿,从而以低计算成本实现实时物体追踪。
研究成果
该方法能从视频序列中自动估算三维标记配置、相机外参及相对位姿,在物体追踪中实现亚毫米级和亚度级的精度。该方法支持实时运行且对不同物体形状具有鲁棒性,适用于增强现实和手术工具追踪等应用场景。未来工作可解决动态环境问题并提升初始化鲁棒性。
研究不足
该方法需要同步的视频序列,并假设摄像头和标记点是刚性固定的。随着物体与摄像头的距离增加,精度会下降;若摄像头数量过少,初始化可能失败,从而导致优化过程中出现局部最小值。手动放置反光标记点以获取真实数据可能会引入潜在误差。
1:实验设计与方法选择:
该方法采用多摄像头前自由移动的刚性平面标记点同步视频序列,通过检测标记点、基于图方法处理位姿歧义来估计初始位姿,并应用非线性优化(Levenberg-Marquardt算法)最小化重投影误差。
2:样本选择与数据来源:
使用五台环形排列的全局快门同步摄像机录制视频序列,实验对象为3D打印并附着标记点的实物。真实数据通过Optitrack动作捕捉系统获取。
3:实验设备与材料清单:
五台同步全局快门摄像机(分辨率640x480,60Hz)、Optitrack动作捕捉系统(六台摄像机,100Hz)、带平面标记点的3D打印物体(边长4厘米)及用于真实数据的反光标记点。
4:实验流程与操作步骤:
录制不同位置和距离的物体视频;采用ArUco方法检测标记点;通过图分析估计初始相机与标记点位姿;执行全局优化;对照动作捕捉数据评估精度。
5:数据分析方法:
最小化重投影误差,对比真实数据计算平移与旋转误差,统计不同条件(如摄像头数量、物体配置)下的误差分布。
独家科研数据包,助您复现前沿成果,加速创新突破
获取完整内容-
Camera
Global-shutter
Capture synchronized video sequences of the scene for marker detection and pose estimation.
-
Motion Capture System
Optitrack
Optitrack
Provide ground truth data for object and camera poses using reflective markers.
-
Planar Marker
ArUco
ArUco
Serve as fiducial markers for detection and pose estimation in images.
-
3D Printer
Create objects with flat surfaces for attaching markers.
-
Reflective Marker
Used with motion capture system to track object and camera positions for ground truth.
-
登录查看剩余3件设备及参数对照表
查看全部