研究目的
开发一种基于视觉的运动估计系统,用于辅助无人机在无先验信息或外部标记的未知区域降落,相比基于GPS的系统提高降落精度。
研究成果
基于混合视觉的框架成功实现了无人机在无标记未知区域的降落,通过结合全局特征关联(GFA)和点云(PC)方法,达到了稳健的速度与位置估计效果。实验结果表明该视觉系统能最小化感知误差:速度估计值与GPS高度吻合(标准差约0.1米/秒),位置误差降至约0.1米,其性能优于基于GPS的降落方案(误差约1.2米)。该系统具备与先进成像及学习技术集成的潜力,可应用于未来的自主飞行场景。
研究不足
GFA方法仅适用于小位移(不超过6像素)以实现精确的速度估计,而PC方法在速度估计上存在噪声但能处理更大的位移(可达20像素)以确定位置。该系统依靠激光高度计等传感器的海拔数据进行调整,计算效率取决于图像尺寸和参数,需通过缩放实现实时处理。本研究未涉及着陆点选择或平面度评估,仅聚焦于运动估计。
1:实验设计与方法选择:
本研究设计了一个混合光流框架,结合Gunnar-Farnebäck算法(GFA)进行速度估计,以及采用多尺度策略的相位相关法(PC)进行位置估计。该框架根据运动类型动态选择算法,以平衡计算效率与精度。
2:样本选择与数据来源:
实验使用商用四旋翼无人机(Stellar X1000)在户外环境中飞行,图像数据由机载相机采集,GPS数据作为基准参照。
3:实验设备与材料清单:
无人机搭载飞行控制系统(Jupiter JM-1自动驾驶仪)、惯性测量单元(IMU)、激光高度计、GPS模块、用于图像处理的NVIDIA Jetson TK1模块,以及GoPro相机(30帧/秒)。图像尺寸调整为320×180像素,感兴趣区域(ROI)为120×120像素。
4:实验流程与操作步骤:
无人机执行悬停与稳定下降指令。视觉系统在悬停时设定参考帧,利用GFA从连续帧中获取速度,通过基于高度的多尺度调整PC算法计算相对于参考帧的位置。当尺度变化超过阈值时自动更新ROI。数据输入PID控制器以实现飞行控制。
5:数据分析方法:
通过对比视觉数据与GPS数据(差值的均值与标准差)评估速度精度;飞行后采用模板匹配检测图像中的着陆点,将GPS与视觉位置与真实值比对以评估位置精度。
独家科研数据包,助您复现前沿成果,加速创新突破
获取完整内容-
NVIDIA Jetson TK1
TK1
NVIDIA
Embedded module for image processing, executing motion estimation algorithms (GFA and PC).
-
Stellar X1000
X1000
InnoFlight
Commercial quadrotor UAV used as the testbed for landing experiments, equipped with flight control and vision systems.
-
Jupiter JM-1 Autopilot
JM-1
Jupiter
Flight control system for UAV navigation and control, running PID control schemes.
-
GoPro Camera
GoPro
Onboard camera for capturing image streams at 30 fps, used for vision-based motion estimation.
-
GPS Module
Provides position and velocity data as a benchmark for comparison with vision-based estimates.
-
Laser Altimeter
Measures UAV altitude for scale adjustment in the multi-phase correlation method.
-
IMU
Inertial measurement unit for motion sensing, integrated with the flight control system.
-
登录查看剩余5件设备及参数对照表
查看全部