复杂场景的人机共融目标检测与跟踪技术研究

基本信息
批准号:61773067
项目类别:面上项目
资助金额:64.00
负责人:陈文颉
学科分类:
依托单位:北京理工大学
批准年份:2017
结题年份:2021
起止时间:2018-01-01 - 2021-12-31
项目状态: 已结题
项目参与者:窦丽华,朱皓,官同凡,李東轩,赛音巴雅尔,阴俊博,秦莹莹,游清
关键词:
目标检测目标跟踪深度学习人机共融图像处理
结项摘要

Computer vision has been well investigated in recent years. But a vision system still can not replace human beings since there are many sophisticated situations in real-world applications. Machine and human need cooperation when detecting unpredictable targets in various scenes. Not many traditional vision systems tried to combine human operations and vision algorithms which usually work independently. Therefore the human offered information was not well exploited for object detecting and tracking. In this research, we plan to collect and establish a new dataset containing realistic human-computer interactive operations. Based on the data, we plan to propose an automatic refinement algorithm for noisy hand inputs. Then research on object detection using deep learning technology will be conducted. The detection results can support the human-involved refinement process and also be an alternative initialization method on their own in some applications. Furthermore, we will explore new tracking methods using deep learning networks to improve tracking performance in complicated backgrounds with heavy occlusions. We also plan to transplant these vision algorithms to a FPGA-based system and finally build a human-machine coexisted vision system for fickle real-world tasks.

近年来计算机视觉技术有了长足的发展,但在实际应用里,视觉系统将面对许多复杂的场景,机器视觉系统无法完全代替人类完成所有工作,机器视觉系统往往需要与人共同工作从纷繁复杂的场景中捕捉跟踪各种预先无法确定的目标。传统视觉系统往往并未关注与如何将人的操作与机器视觉系统融合,实现检测与跟踪效果的优化,以最大限度的有效利用人所提供的信息进行目标的检测跟踪。在本项目中计划首先建立人机交互的数据集,在此基础上研究人机交互的输入建模以及交互输入信息的恢复与去噪,其次应用深度学习技术研究目标检测,一方面用于支持有人输入的目标区域的有效恢复,另一方面与人机交互方式互补结合完成对目标区域的确定与初始化。进一步我们研究面向复杂环境开展抗遮挡的跟踪技术研究,利用深度学习技术建立起有效的跟踪技术,以便最终在复杂场景中实现人机共融的目标检测与跟踪。最后研究研究算法的嵌入式FPGA实现,构建人机共融的目标检测与跟踪系统。

项目摘要

近年来计算机视觉技术有了长足的发展,但在实际应用里,视觉系统将面对许多复杂的场.景,机器视觉系统无法完全代替人类完成所有工作,机器视觉系统往往需要与人共同工作从纷.繁复杂的场景中捕捉跟踪各种预先无法确定的目标。传统视觉系统往往并未关注与如何将人的.操作与机器视觉系统融合,实现检测与跟踪效果的优化,以最大限度的有效利用人所提供的信.息进行目标的检测跟踪。在本项目中计划首先建立人机交互的数据集,在此基础上研究人机交.互的输入建模以及交互输入信息的恢复与去噪,其次应用深度学习技术研究目标检测,一方面.用于支持有人输入的目标区域的有效恢复,另一方面与人机交互方式互补结合完成对目标区域.的确定与初始化。进一步我们研究面向复杂环境开展抗遮挡的跟踪技术研究,利用深度学习技.术建立起有效的跟踪技术,以便最终在复杂场景中实现人机共融的目标检测与跟踪。最后研究.研究算法的嵌入式FPGA实现,构建人机共融的目标检测与跟踪系统。

项目成果
{{index+1}}

{{i.achievement_title}}

{{i.achievement_title}}

DOI:{{i.doi}}
发表时间:{{i.publish_year}}

暂无此项成果

数据更新时间:2023-05-31

其他相关文献

1

环境类邻避设施对北京市住宅价格影响研究--以大型垃圾处理设施为例

环境类邻避设施对北京市住宅价格影响研究--以大型垃圾处理设施为例

DOI:10.11821/dlyj020190689
发表时间:2020
2

内点最大化与冗余点控制的小型无人机遥感图像配准

内点最大化与冗余点控制的小型无人机遥感图像配准

DOI:10.11834/jrs.20209060
发表时间:2020
3

基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例

基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例

DOI:
发表时间:2022
4

基于全模式全聚焦方法的裂纹超声成像定量检测

基于全模式全聚焦方法的裂纹超声成像定量检测

DOI:10.19650/j.cnki.cjsi.J2007019
发表时间:2021
5

基于协同表示的图嵌入鉴别分析在人脸识别中的应用

基于协同表示的图嵌入鉴别分析在人脸识别中的应用

DOI:10.3724/sp.j.1089.2022.19009
发表时间:2022

陈文颉的其他基金

相似国自然基金

1

面向无人机基于在线场景建模的室外目标检测与跟踪方法研究

批准号:61503256
批准年份:2015
负责人:朱琳琳
学科分类:F0604
资助金额:18.00
项目类别:青年科学基金项目
2

复杂动态场景运动目标检测跟踪与奇异性处理方法研究

批准号:61174202
批准年份:2011
负责人:遆晓光
学科分类:F0303
资助金额:57.00
项目类别:面上项目
3

复杂场景多目标轮廓跟踪与异常行为早期检测方法研究

批准号:61074106
批准年份:2010
负责人:胡士强
学科分类:F03
资助金额:36.00
项目类别:面上项目
4

无人机视频运动目标检测跟踪关键技术研究

批准号:61876014
批准年份:2018
负责人:郑锦
学科分类:F0604
资助金额:65.00
项目类别:面上项目