基于深度相机的增强装配交互技术研究

基本信息
批准号:51705273
项目类别:青年科学基金项目
资助金额:25.00
负责人:李东年
学科分类:
依托单位:青岛理工大学
批准年份:2017
结题年份:2020
起止时间:2018-01-01 - 2020-12-31
项目状态: 已结题
项目参与者:陈成军,金霞,庞列勇,张石磊,田中可,张昊苏
关键词:
徒手交互深度相机增强装配虚实交互
结项摘要

By adding virtual inductive information to the real assembly scene, augmented assembly assists the user in assembly design and planning. In the assembly space, to make the user, real components and virtual components merge and interact with each other is a key issue for assembly guidance and monitoring. This program focuses on the interaction problem in augmented assembly, and proposes a scheme for bare-hand interaction and real-virtual interaction in augmented assembly based on a depth camera. By observing the assembly scene via a depth camera and using visual methods to track the real assembly scene state, the bare-hand interaction between the user and virtual contents and the virtual-real interaction between the virtual and real components are achieved. The main research contents are as follows: (1) A real-time robust hand pose tracking method is studied to support bare-hand interaction in augmented assembly. (2) A multi-tracker cooperative tracking method is studied for pose tracking of real components under occlusions to support virtual-real interaction. (3) An assembly data structure is established for assembly data management. 4. Assembly feature and geometric constraint recognition is studied to obtain the constrained motion of virtual components under assembly constraints. Results in the research can be used not only in the field of augmented assembly, but also in other fields such as human-robot collaboration, robot assembly, part sorting, and so on.

增强装配通过将虚拟诱导信息叠加到真实装配场景中,辅助用户进行装配设计和规划。在装配空间中实现人、真实零部件和虚拟零部件的融合、交互是实现装配诱导、监测的关键。本课题重点研究增强装配中的交互问题,提出“基于深度相机的增强装配徒手交互、虚实交互”,通过深度相机来对装配场景进行观测,采用视觉方法跟踪真实装配场景状态,实现操作者与虚拟内容之间的徒手交互以及虚拟-真实零件之间的虚实交互,主要研究内容包括:(1)研究一种实时鲁棒的人手运动跟踪方法来实现增强装配操作中的徒手交互;(2)针对虚实交互需求,研究一种多跟踪器协作跟踪的方法来实现遮挡情况下多个真实零件的姿态跟踪;(3)建立装配数据组织结构来对装配数据进行管理;(4)研究装配特征和装配约束的自动识别方法,以获取虚拟零件在装配约束下自由度受限的运动。研究成果不仅可用于增强装配领域,还可推广应用于人机协作、机器人装配、零件分选等领域。

项目摘要

增强装配通过将虚拟信息叠加到真实装配场景中来辅助用户进行装配设计和规划。本项目研究增强装配系统中人、真实零部件和虚拟零部件的融合、交互,通过深度相机来对装配场景进行监测,跟踪装配场景状态,最终目标是实现操作者与虚拟内容之间的徒手交互以及虚拟-真实零件之间的虚实交互。原计划拟从人手运动跟踪、多物体姿态跟踪和虚拟零件装配运动仿真三个方面开展研究。由于装配数据管理和装配运动仿真技术相对成熟,因而本项目重点研究了面向增强装配的人手运动跟踪和多物体姿态跟踪。在增强装配环境下,对操作者人手和真实零部件的运动姿态进行有效的跟踪是实现徒手交互、虚实交互的基础。为实现人手和虚拟零件之间的交互,本项目研究了人手与物体交互过程的姿态跟踪;为实现真实和虚拟零件之间的交互,本项目对装配状态和杂乱放置两种不同情形下真实零件的分割识别、姿态估计进行了研究。另外,本项目还研究了真实-虚拟物体的遮挡判断和碰撞检测,其结果可用于后续的虚拟零部件运动仿真。主要研究成果包括:(1)采用两个互相协作的差分进化粒子滤波跟踪器来对人手-物体交互过程中的人手和物体分别进行运动跟踪,两个跟踪器不是相互独立的,而是在跟踪过程中不断进行信息交流,将高维问题分解为多个相对低维的问题,降低了优化搜索的难度。(2)提出一种多层随机森林像素分类方法来进行装配体装配状态识别与零部件语义分割,能够对不同装配状态下的装配体零部件进行有效的分割和识别。(3)分别采用Mask RCNN、全卷积网络(FCN)和FSA-Net深度学习网络模型解决了杂乱场景下零件的分割识别与姿态估计问题,通过三维渲染引擎OSG来合成机械零件的图像训练集,来对网络模型进行训练。(4)建立深度图像的四叉树编码模型,逐层比较真实深度图像和合成物体的点云深度图像对应栅格区域的深度值范围,实现了真实-虚拟物体的遮挡判断和碰撞检测。研究成果不仅可用于增强装配系统,还可用于人机协作、零件分拣、机器人装配等领域。

项目成果
{{index+1}}

{{i.achievement_title}}

{{i.achievement_title}}

DOI:{{i.doi}}
发表时间:{{i.publish_year}}

暂无此项成果

数据更新时间:2023-05-31

其他相关文献

1

基于SSVEP 直接脑控机器人方向和速度研究

基于SSVEP 直接脑控机器人方向和速度研究

DOI:10.16383/j.aas.2016.c150880
发表时间:2016
2

低轨卫星通信信道分配策略

低轨卫星通信信道分配策略

DOI:10.12068/j.issn.1005-3026.2019.06.009
发表时间:2019
3

基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例

基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例

DOI:
发表时间:2022
4

多空间交互协同过滤推荐

多空间交互协同过滤推荐

DOI:10.11896/jsjkx.201100031
发表时间:2021
5

采用深度学习的铣刀磨损状态预测模型

采用深度学习的铣刀磨损状态预测模型

DOI:10.3969/j.issn.1004-132x.2020.17.009
发表时间:2020

李东年的其他基金

相似国自然基金

1

深度相机与CCD传感器交互的3D场景流计算技术研究

批准号:61772255
批准年份:2017
负责人:陈震
学科分类:F0210
资助金额:62.00
项目类别:面上项目
2

虚拟装配的交互语义技术研究

批准号:61370135
批准年份:2013
负责人:程成
学科分类:F0209
资助金额:73.00
项目类别:面上项目
3

单目深度相机的人体动态捕捉技术研究

批准号:61602507
批准年份:2016
负责人:陈寅
学科分类:F0209
资助金额:20.00
项目类别:青年科学基金项目
4

基于深度学习的装配场景理解及装配诱导、监测研究

批准号:51475251
批准年份:2014
负责人:陈成军
学科分类:E0510
资助金额:80.00
项目类别:面上项目