本项目研究在可穿戴系统中,使用全向视觉传感器,实现实时获取穿戴者在其所处未知动态场景中的三维运动信息和三维场景结构信息。由于场景中没有任何预先放置的标记,因此学者们提出使用场景中自然特征点的方法。但是这类方法的主要问题是只能处理纹理相对比较丰富的场景,对于纹理较少场景将无法工作,而且系统的实时性和鲁棒性不高,无法达到实用要求。针对以上问题,从充分利用场景现有信息方面着手,我们在场景中提取直线特征,利用点和直线之间的互补性,提出了点线特征融合这一新方法,增加了系统可处理场景的范围,提高了系统的性能。研究内容包括:实时在线全向摄像机标定;点线特征的鲁棒精确地提取与描述;基于点线特征融合的鲁棒跟踪;基于球面调和分析点线特征融合的实时运动分析与三维结构恢复等。通过以上内容的研究,建立一系列关于全向视觉的实时鲁棒算法,解决目前可穿戴视觉系统中的实时性和鲁棒性难题,丰富全向视觉的基本理论和方法。
{{i.achievement_title}}
数据更新时间:2023-05-31
玉米叶向值的全基因组关联分析
正交异性钢桥面板纵肋-面板疲劳开裂的CFRP加固研究
硬件木马:关键问题研究进展及新动向
基于SSVEP 直接脑控机器人方向和速度研究
小跨高比钢板- 混凝土组合连梁抗剪承载力计算方法研究
基于全向深度视觉的高精度人体肢体运动三维重建研究
全向结构光视觉三维测量技术研究
全向视觉感知中的自动标定和三维重建
基于折反射全向立体视觉的运动目标检测与跟踪研究