视觉交互是仿人机器人人机交互研究的一个核心问题。可靠快速准确地获取目标多变量即姿态、位置和大小,是视觉交互准确识别目标的基础。而现有的多变量目标跟踪方法较难完全满足实时性和鲁棒性的要求。因此加强此领域的基础研究,实时鲁棒地跟踪目标姿态、位置和大小是一个亟待解决的问题。. 本申请首先提出一种新的具备对目标多变量跟踪能力的自适应带宽均值移动算法,通过建立带宽与样本分布的关系并在迭代过程中动态更新带宽,可加快算法的收敛速度,并可得到目标的位置、大小和姿态信息;并在此基础上研究该算法融合多种视觉特征的内在机制,提高算法的鲁棒性;然后实现目标跟踪算法;最后将在实际的仿人机器人平台上实现基于视觉的简单人机交互,验证跟踪算法的有效性。本课题的研究将有效提高人机交互过程中对视觉噪声的抗干扰能力及人机交互的速度,让仿人机器人更高效准确地为人们服务。研究成果对仿人机器人实用化具有重大意义。
{{i.achievement_title}}
数据更新时间:2023-05-31
黄河流域水资源利用时空演变特征及驱动要素
基于SSVEP 直接脑控机器人方向和速度研究
一种改进的多目标正余弦优化算法
多空间交互协同过滤推荐
基于LBS的移动定向优惠券策略
鲁棒视觉跟踪中的目标表示与模型更新关键技术研究
交通视觉中鲁棒目标检测方法研究
复杂动态场景中鲁棒的视觉跟踪算法研究
基于深度学习的跨摄像机长时实时目标跟踪鲁棒性研究