人类以及其他高等生物的视觉系统通常都由多个传感器组成,快速地还原场景中背景和目标模型,在高强度噪音、复杂背景等环境下优于人工的视觉系统。受生物视觉三维重建、特征点分析的离散模型等启发,结合计算机视觉、场景快速重建、核密度空间最新的研究成果与面向聚类目标监测与跟踪方法,重点研究监控场景的快速学习自调整方法;高维多目标核函数的聚类方法;三维空间时间全局与局部特征点提取与建模;多目标的行为在线分析与深层理解,以及不当或异常行为的侦测与预警。研究从高维不变特征提取建模到深层的行为分析,建立多目标快速监测与在线分析的方法库,探索场景中目标异常行为监测的新途径,对于推动我国建立多视角环境下多目标快速分析系统深层次行为理解无疑具有重要的理论与应用价值。
近四年来,课题组结合多视角下多信息源的特点,从成像几何和计算机视觉理论出发,就多类型目标的识别模型与解析模型等展开研究,在以下几个方面已取得了显著进展:.(1)针对多视角下多目标的数据高冗余特点,提出一种新的稀疏表达方法,该方法充分利用训练样本的类别标签信息进行稀疏表达的基向量学习,并用得到的基构造特征编码的字典集合。此外,构造多层深度网络前向传播定位目标的位置,并反向传播得到目标的稀疏表达方式。.(2)从场景中多目标在时间序列上的空间位置相关性出发,通过研究多节点的图结构以及各个节点之间的关联连接,建立了多目标的结构模型。该结构模型较好地模拟了多目标之间的空间关系,从全局的高度推理多目标的最优状态信息,有效避免了局部逐个推理所带来局限性,最终有效地解决了多目标定位中的严重遮挡与跟踪漂移的问题。.(3)针对真实场景中目标尺度各不相同、类内差异较大的问题,提出一种场景相关的混合可变形部件模型。训练多尺度结构的混合可变形部件模型,结合场景相关特征,使用图模型进行表示和推断,能够有效减少小尺度目标的虚检,提高检测精度,同时将静态图像中学习到的行人模型迁移到静态视频监控场景中,简化模型的训练过程。.(4)以多视角下的多类型目标的不同范例为基本单元,研究了范例间的高维非线性的相似测度函数,提出了新的范例集成算法用于检测多视角下的多类型目标。每个范例都可形成一个独立的模型,类型的识别则是基于多范例的集成模型。该方法可用于任意规模的训练样本集,有效解决了多视角下同一类型目标训练样本不足的难题。同时,范例与所检测样本的之间建立的相似性联系,能将范例所含有的知识迁移到目标上得到更高层次的目标知识(例如:二维区域、三维模型等)。.此外,本项目研究成果已在人工智能国际顶级会议International Joint Conference on Artificial Intelligence上发表论文,在IEEE International Conference on Multimedia & Expo和 IEEE International Conference on Pattern Recognition国际会议上作为口述报告宣读论文,并在IEEE ICIP和IEEE ICASSP等国际会议上发表多篇论文。在人才培养方面,共培养硕士研究生14名,其中11名已获得硕士学位。
{{i.achievement_title}}
数据更新时间:2023-05-31
玉米叶向值的全基因组关联分析
基于分形L系统的水稻根系建模方法研究
涡度相关技术及其在陆地生态系统通量研究中的应用
正交异性钢桥面板纵肋-面板疲劳开裂的CFRP加固研究
硬件木马:关键问题研究进展及新动向
多视角智能观测SAR目标识别理论与方法研究
基于多视角与多示例学习的目标跟踪方法研究
基于多视角融合的欺诈行为识别方法与应用研究
基于三维模型的多视角步态分析与识别算法研究