本项目研究在可穿戴系统中,使用全向视觉传感器,实现实时获取穿戴者在其所处未知动态场景中的三维运动信息和三维场景结构信息。由于场景中没有任何预先放置的标记,因此学者们提出使用场景中自然特征点的方法。但是这类方法的主要问题是只能处理纹理相对比较丰富的场景,对于纹理较少场景将无法工作,而且系统的实时性和鲁棒性不高,无法达到实用要求。针对以上问题,从充分利用场景现有信息方面着手,我们在场景中提取直线特征,利用点和直线之间的互补性,提出了点线特征融合这一新方法,增加了系统可处理场景的范围,提高了系统的性能。研究内容包括:实时在线全向摄像机标定;点线特征的鲁棒精确地提取与描述;基于点线特征融合的鲁棒跟踪;基于球面调和分析点线特征融合的实时运动分析与三维结构恢复等。通过以上内容的研究,建立一系列关于全向视觉的实时鲁棒算法,解决目前可穿戴视觉系统中的实时性和鲁棒性难题,丰富全向视觉的基本理论和方法。
{{i.achievement_title}}
数据更新时间:2023-05-31
基于国产化替代环境下高校计算机教学的研究
基于铁路客流分配的旅客列车开行方案调整方法
基于LS-SVM香梨可溶性糖的近红外光谱快速检测
基于MCPF算法的列车组合定位应用研究
基于文献计量学和社会网络分析的国内高血压病中医学术团队研究
基于全向深度视觉的高精度人体肢体运动三维重建研究
全向结构光视觉三维测量技术研究
全向视觉感知中的自动标定和三维重建
基于折反射全向立体视觉的运动目标检测与跟踪研究