基于深度视频的跨时空影像融合与沉浸式环境构建

基本信息
批准号:61672326
项目类别:面上项目
资助金额:62.00
负责人:秦学英
学科分类:
依托单位:山东大学
批准年份:2016
结题年份:2020
起止时间:2017-01-01 - 2020-12-31
项目状态: 已结题
项目参与者:钟凡,李成龙,宋希彬,王斌,黄鸿,翟昌杰,段晖莉,张倩,王媛
关键词:
相机阵列多维成像时空一致性计算成像
结项摘要

With the announcement of HTC Vive, Virtual Reality is more and more popular and changing the world. However, it is very important how to integrate multiple spatial-temporal scenes to make people share this mixed world. This project aims to produce an integrating scene which are physically existing in different places, and form a visually mixed real scenes in an immersive way. The sensors are consisted of a few Kinect, which depth camera and image camera are actually stereo cameras with different sources. The depth videos and image videos are row data. With depth image enhancement and bi-layers of depth videos and the constraints learned from deep learning, the conditional compact structure are constructed to reduce the redundant data. In order to generate high quality images, deep learning is employed to find out the features in images and depth videos and obtain the prior, which was difficult to represent by any traditional constraint conditions. With registration of these spaces, the stereo images of virtual views are generated according to the view fields of eyes of a viewer on demand.

随着HTC Vive等虚拟现实穿戴式头盔和交互工具的发布,具有震撼力的虚拟现实技术正在深刻地影响世界。如何使身在不同物理空间的人自然地共享统一时空,是下一代虚拟现实技术改变人类社交和协同的重要技术。本项目旨在研究从多个现实场景中如何快速重构多视向虚拟视点的立体影像问题,形成跨时空场景的沉浸式融合画面,获得面对面交流的体验。由多个深度与纹理摄像头构成的异源立体摄像对,采集现实场景的原始数据,通过增强深度图像、时空注册和精细化的影像分层,快速形成动态场景的紧致重构,形成现实场景的多源影像的分层结构表达,确保影像的时空一致性。跨时空场景在时空注册的基础上进行场景的融合与重绘,按需生成特定视点的影像。更进一步,由深度与纹理影像构成的传感器,经过深度学习算法对画面特征的提取,形成对现实场景影像重构的约束条件,增强画面的流畅性、平滑性和立体感,实现具有沉浸感的跨时空融合效果。

项目摘要

本项目旨在研究跨时空动态场景融合技术中的关键技术问题,是未来远程会议、融入式远程呈现与未来办公室的共性基础。基于非结构化的多点深度视频和影像数据,通过计算进行影像解析与重构,实现跨时空动态场景时空一致性无缝融合与逼真再现。跨时空动态场景的融合本质上是对多个动态场景的光线进行结构化和重组。由深度视频和纹理图像采集器捕获的场景数据构成半结构化的数据,通过建立深度视频与纹理图像进行高精度的校准模型,实现了深度视频与纹理图像的子像素精度的配准;再通过深度视频的修补技术来弥补深度视频的采样缺失,最后采用基于深度学习的深度图超分辨率方法,生成高度清晰的深度图像,为高精度的视频重绘奠定了基础。.. 由人体头部与物体对象的三维跟踪也构成高效的结构化数据,提出了基于边缘一致性的头部姿态跟踪算法,准确估计头部的姿态。由于物体在实际应用场景中是重要的关注对象,因此深入研究了基于模板的三维物体跟踪技术,提出了一系列物体尤其是无纹理物体的三维实时跟踪方法,包括基于边缘距离场和基于边缘置信度的三维跟踪方法、基于区域颜色置信度的跟踪方法等。其中,基于边缘的算法在智能手机上达到强实时,是目前已知最快的算法;基于区域的方法实现了在难度最高的RBOT数据集上的最佳精度,正在构建一个新的三维模板跟踪的数据集并将不断完善和扩展。由于三维跟踪本质上实现了动态场景空间的重构,为跨时空场景融合奠定了基础。.. 在场景紧致表达方面,通过稀疏表示理论,生成目标基于影像的既具有完整性又具有紧凑性的表达,从而确保了目标跟踪的鲁棒性。在场景的重绘方面,采用深度对抗网络研究对人脸图像进行修改的探索性研究。由于深度对抗网络在高层语义理解的能力很强,对人脸图像在重绘上具有更好的智能性,是更具特色和潜力的方向。开发了一个基于眼动跟踪的穿透式屏幕,将虚拟场景或远程场景与现实场景无缝融合。

项目成果
{{index+1}}

{{i.achievement_title}}

{{i.achievement_title}}

DOI:{{i.doi}}
发表时间:{{i.publish_year}}

暂无此项成果

数据更新时间:2023-05-31

其他相关文献

1

基于一维TiO2纳米管阵列薄膜的β伏特效应研究

基于一维TiO2纳米管阵列薄膜的β伏特效应研究

DOI:10.7498/aps.67.20171903
发表时间:2018
2

基于 Kronecker 压缩感知的宽带 MIMO 雷达高分辨三维成像

基于 Kronecker 压缩感知的宽带 MIMO 雷达高分辨三维成像

DOI:10.11999/JEIT150995
发表时间:2016
3

居住环境多维剥夺的地理识别及类型划分——以郑州主城区为例

居住环境多维剥夺的地理识别及类型划分——以郑州主城区为例

DOI:10.11821/dlyj201810008
发表时间:2018
4

瞬态波位移场计算方法在相控阵声场模拟中的实验验证

瞬态波位移场计算方法在相控阵声场模拟中的实验验证

DOI:
发表时间:2020
5

混采地震数据高效高精度分离处理方法研究进展

混采地震数据高效高精度分离处理方法研究进展

DOI:10.3969/j.issn.1000-1441.2020.05.004
发表时间:2020

秦学英的其他基金

批准号:60870003
批准年份:2008
资助金额:35.00
项目类别:联合基金项目
批准号:60373035
批准年份:2003
资助金额:25.00
项目类别:面上项目
批准号:61173070
批准年份:2011
资助金额:58.00
项目类别:面上项目

相似国自然基金

1

视频事件驱动的深度序列学习与多模态时空注意融合

批准号:61872122
批准年份:2018
负责人:李平
学科分类:F0210
资助金额:63.00
项目类别:面上项目
2

沉浸式虚拟现实视频内容生成与高效编码

批准号:61672063
批准年份:2016
负责人:王荣刚
学科分类:F0210
资助金额:62.00
项目类别:面上项目
3

基于深度时空关系的视频关键点跟踪

批准号:61806196
批准年份:2018
负责人:朱翔昱
学科分类:F0605
资助金额:25.00
项目类别:青年科学基金项目
4

沉浸式3D全景视频的表示编码及传输

批准号:61772066
批准年份:2017
负责人:林春雨
学科分类:F0210
资助金额:64.00
项目类别:面上项目