面向跨相机跟踪的场景几何-语义联合理解与关联

基本信息
批准号:61572061
项目类别:面上项目
资助金额:67.00
负责人:周忠
学科分类:
依托单位:北京航空航天大学
批准年份:2015
结题年份:2019
起止时间:2016-01-01 - 2019-12-31
项目状态: 已结题
项目参与者:段晔,周颐,姜那,张劲松,Brittany Anne Morago,Truc Duc Le,张景昌,胡宇,杨晋
关键词:
人体跟踪语义建模虚实融合跨相机跟踪动作探测
结项摘要

The inter-camera pedestrian tracking and action detection has been one of the hot issues in computer vision, especially the tracking of camera without overlap region, since it is a difficult problem. The existing method generally setting the spatiotemporal association pattern between cameras through camera calibration, topological mapping or Manual classification secant, then redetecting the target through visual feature and space abstraction. It is defective in scene semantic. The project introduces a technology of fusion in visual computing, and propose the methods of the structure extraction according of the geometry and physical properties of objects in the scene: to calibrate the camera to three-dimensional structure of the scene, fuse every camera images and create a geometric-semantic model of joint understanding scene; On basis that learning dense trajectory in spatial and temporal extents, proposed a segmentation method of trajectory area to locate and identify the video object motion. The method don’t need the manual annotation bounding box and can unsupervised motion detection learning on video dataset. The geometric-semantic model of joint understanding scene is contribute to more accurately describe the spatial dimensions of each camera image blocks in scenes, walkable surface, depth and occlusion relationship. The project intends to explore the inter-camera tracking and associate of pedestrians on this basis, in order to verify the meaning and value of the geometric-semantic model of joint understanding scene.

跨相机的人员跟踪与动作探测一直是视觉相关领域的热点问题之一,特别是非重叠视域相机的跟踪是一个难题。现有方法大多通过相机标定、拓扑映射或手工划分割线等方式设定相机间的时空关联模式,通过视觉特征和空间抽象进行目标再识别,在充分挖掘利用场景语义方面存在不足。本课题在该问题中引入虚实融合思想,提出根据场景解析中的物体几何和语义属性进行结构提取,将相机标定到三维场景结构中,融合各相机图像,构建一种几何-语义联合理解的场景模型;在对稠密轨迹进行时空范围学习的基础上,提出一种轨迹区域分割方法来定位和识别视频对象的动作,可以不需要人工标注包围盒,无监督地对视频数据集进行动作学习。这种几何-语义联合理解的场景模型,有助于更精确地描述场景中各相机图像块的空间尺寸、可行走表面、深度以及遮挡关系等,拟在这个基础上探索非重叠视域相机网络中跨相机的行人跟踪与轨迹关联,验证这种几何-语义联合理解的场景模型的意义与价值。

项目摘要

多相机监控网络覆盖范围大,不同位置的相机在内容上很难关联分析,跨相机人员的动作识别及跟踪是长久以来没有充分解决并受到广泛关注的一个难题。本课题将虚实融合思想引入到多相机协作监控技术中,提出根据场景解析中的物体几何和语义属性进行结构提取,将相机标定到三维场景结构中,融合各相机图像构建一种几何-语义联合理解的场景模型,更精确地描述场景中各相机图像块的空间尺寸、可行走表面、深度以及遮挡关系等,在此基础上研究了非重叠视域相机网络中跨相机的行人跟踪与轨迹关联,对这种几何-语义联合理解的场景模型在多个典型场景中进行了有效验证,表现出重要的理论意义和实用价值,正在开展推广应用。.有关研究形成了具有自主知识产权的算法,在TMM、Science China Information Sciences、The Visual Computer等重要国际期刊和ACM MM、VR、ICASSP等重要学术会议上发表论文28篇。发表期刊论文8篇,其中SCI检索3篇,发表于CCF B类期刊的1篇论文在Google Scholar已引用23次;发表会议论文20篇,其中CCF A类会议论文2篇、B类1篇、C类7篇,2篇论文获国际学术会议论文奖。3篇学位论文获校级优秀硕士论文奖。申请国际发明专利2项、国家发明专利12项,其中2项国际专利已授权。课题组研究生积极参加相关科技竞赛,获全国研究生智慧城市大赛视频技术挑战赛1等奖1次、二等奖2次、三等奖3次,获虚拟现实国际竞赛三等奖1次。支持项目组研究骨干参加国内外学术交流和开展国际合作交流20余人次。

项目成果
{{index+1}}

{{i.achievement_title}}

{{i.achievement_title}}

DOI:{{i.doi}}
发表时间:{{i.publish_year}}

暂无此项成果

数据更新时间:2023-05-31

其他相关文献

1

基于分形L系统的水稻根系建模方法研究

基于分形L系统的水稻根系建模方法研究

DOI:10.13836/j.jjau.2020047
发表时间:2020
2

跨社交网络用户对齐技术综述

跨社交网络用户对齐技术综述

DOI:10.12198/j.issn.1673 − 159X.3895
发表时间:2021
3

小跨高比钢板- 混凝土组合连梁抗剪承载力计算方法研究

小跨高比钢板- 混凝土组合连梁抗剪承载力计算方法研究

DOI:10.19701/j.jzjg.2015.15.012
发表时间:2015
4

基于多模态信息特征融合的犯罪预测算法研究

基于多模态信息特征融合的犯罪预测算法研究

DOI:
发表时间:2018
5

基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例

基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例

DOI:
发表时间:2022

周忠的其他基金

相似国自然基金

1

基于虚实场景融合的跨相机目标重识别与轨迹关联技术

批准号:61872024
批准年份:2018
负责人:吴威
学科分类:F0209
资助金额:67.00
项目类别:面上项目
2

语义关联的室内场景对象建模及功能理解

批准号:61772049
批准年份:2017
负责人:孔德慧
学科分类:F0209
资助金额:63.00
项目类别:面上项目
3

基于关系语义的空间场景信息理解

批准号:41471315
批准年份:2014
负责人:李梅
学科分类:D0114
资助金额:87.00
项目类别:面上项目
4

基于视觉和语义的室内场景理解与实时建模

批准号:61632006
批准年份:2016
负责人:尹宝才
学科分类:F0209
资助金额:265.00
项目类别:重点项目