研究目的
通过借鉴人眼运动原理,在云台相机上实现基于前庭眼反射(VOR)的相对无人机运动的移动,研究如何最小化视觉和图形渲染中的视角变化。
研究成果
基于VOR原理的云台相机运动方案在实际应用中将视角变化降低了7-8%,仿真中降低3-4%,有效稳定了图像并提升了视觉追踪效果。该方法通过考量人眼注视与头部运动,为VR应用提供了新思路,增强了场景渲染的真实感。
研究不足
云台相机内置的稳定机制影响了实验结果,导致与模拟数据的对比呈现非线性关系。PupilLabs眼动仪在精度、发热及校准复杂度方面存在局限。禅思X3云台相机的固定视场角为94°,小于人眼视场角(114°)。出于安全考虑,无人机运动仅限于偏航角度调整。
1:实验设计与方法选择:
研究在无人机搭载的云台相机上实现了基于前庭眼反射(VOR)的运动,模拟人眼与头部的协调机制。采用OpenGL可视化技术模拟并测量视点变化,对比基于VOR与非VOR场景的效果。
2:样本选择与数据来源:
仿真与实际实验均使用两种预设目标点模式(序列式与往复式),目标为放置于现实物体上的标记物。
3:实验设备与材料清单:
大疆Matrice-100无人机、禅思X3云台相机、PupilLabs眼动仪、OpenGL图形库、Windows平台C++编程环境、大疆软件开发套件及API接口。
4:实验流程与操作步骤:
无人机在1.2-1.5米高度悬停,通过偏航角追踪目标。云台相机编程实现基于VOR的运动控制。仿真环节采用OpenGL可视化技术进行增量式视点更新,记录视点变化与注视位置数据。
5:2-5米高度悬停,通过偏航角追踪目标。云台相机编程实现基于VOR的运动控制。仿真环节采用OpenGL可视化技术进行增量式视点更新,记录视点变化与注视位置数据。 数据分析方法:
5. 数据分析方法:以图像中目标位置的像素欧氏距离衡量视点变化,对比仿真与实际场景中VOR与非VOR方案的实施效果。
独家科研数据包,助您复现前沿成果,加速创新突破
获取完整内容-
Matrice-100
Matrice-100
DJI
Used as the unmanned aerial vehicle (UAV) to simulate head movement, hovering and pursuing pre-defined targets with yaw angles.
-
Zenmuse-X3
Zenmuse-X3
DJI
Used as the gimbal camera to simulate eyeball movement, implementing VOR-based movement to reduce viewpoint changes and stabilize images.
-
PupilLabs
PupilLabs
PupilLabs
Used as an eye tracker to investigate gaze direction and foveal range for VOR implementation.
-
OpenGL
Used for simulation and visualization of viewpoint changes, implementing the VOR-based algorithm in C++ on Windows platform.
-
登录查看剩余2件设备及参数对照表
查看全部