低功耗网络传输环境下可穿戴用户主观视角行为识别方法研究

基本信息
批准号:61772052
项目类别:面上项目
资助金额:16.00
负责人:赵琦
学科分类:
依托单位:北京航空航天大学
批准年份:2017
结题年份:2018
起止时间:2018-01-01 - 2018-12-31
项目状态: 已结题
项目参与者:赵岭,张博学,程飞扬,辛淼,孙泽斌,吕书畅,陈玉莹
关键词:
卷积神经网络信息融合可穿戴认知网络主观视角
结项摘要

The ever increasing needs of activity recognition from egocentric perspective video based on wearable device has made the low power consumption and complexity design a challenging issue. To conquer this issue,this foundation proposes to establish a subjective of behavior recognition and combining with the characteristics of low power method. We mainly focus on the following tasks: (1) We propose an efficient and compact image feature evolutionary model with Convolutional Neural Network (CNN), which can ensure the robustness and integrity of image features and expression the features of the background. (2) We study the combination the motion information and the background information to get the activity recognition result. This research is of great benefit to making use of the egocentric perspective video resources and combine the motion information with the background information, and the research make it reliable to monitor the human’s activities by wearable equipment.

随着可穿戴用户主观视角行为识别需求的不断提高,如何在保证行为识别准确度的前提下降低设备的设计复杂度和功耗已成为学术界面临的重要问题之一。针对该问题,本课题建立一种主观视角行为特征识别方法与无线网络低功耗传输方法相结合的闭环研究模式,实现低功耗网络传输环境下主观视角行为的远程识别与监控。具体研究内容包括:(1)研究高效紧凑的卷积神经网络算法,对主观视角视频图像环境特征进行提取和表达;(2)研究主观视角视频图像与惯性传感器数据多模态信息融合,实现行为特征的表达与识别。上述问题的解决将环境信息与运动信息得到有效结合及利用,在提高主观视角行为识别准确度的前提下大幅减少存储空间与设备功耗,实现可穿戴用户行为监控的智能化分析与决策。

项目摘要

本课题针对低功耗网络传输环境下可穿戴用户主观视角行为识别方法展开研究。研究内容包括以下两个主要部分:1)图像场景信息提取与表达:研究了AlphaMEX网络模块及高效紧凑的卷积神经网络算法,构建了MAP多激活值池化卷积神经网络及可变收缩率瓶颈模块架构,在提高分类准确度的前提下对网络结构进行了优化,最大限度压缩网络结构。AlphaMEX结构在标准图像识别数据库测试中,相比顶尖卷积神经网络ResNet架构能够有效提升准确率5%以上;可变收缩率瓶颈模块在使用少量参数,同等计算量条件下,全面降低了ImageNet数据集top-1和top-5错误率达到0.5%。相比于CondenseNet (G=C=4)网络结构,课题组提出的紧凑型网络仅使用2/3的参数量和较少的计算量,便能够达到相同效果。紧凑型网络模块的提出减少了网络计算量和存储空间占用,使之更好的应用于可穿戴设备。2)多模态信息融合:研究了主观视角视频图像与惯性传感器数据多模态信息融合方法,提出了基于多模态D-S证据推理的闭环数据融合策略,一方面建立图像传感器图像信息、惯性传感器动作信息与行为之间的融合关系;另一方面构建闭环反馈系统,通过可穿戴设备多模态自适应控制,降低设备功耗,提高识别准确度。通过建立多模态信息融合闭环模型,将可穿戴设备传感器获取的环境信息和动作信息进行融合,实现了行为的准确判别及设备端传感器频率自适应调节,在提高行为识别准确性的基础上降低设备功耗。.通过以上研究,突破了卷积神经网络结构压缩、AlphaMEX卷积神经网络模块、卷积神经网络和SIFT的融合主观视角导航定位、MAP多激活值池化网络模块、基于可变收缩率瓶颈结构的RSNet网络结构搭建、自适应性可穿戴设备主观视角图像采集方法等关键技术。课题成果将环境信息与运动信息高效融合,在提高主观视角行为识别准确度的前提下大幅减少存储空间与设备功耗,实现了可穿戴用户行为监控的智能化分析与决策。

项目成果
{{index+1}}

{{i.achievement_title}}

{{i.achievement_title}}

DOI:{{i.doi}}
发表时间:{{i.publish_year}}

暂无此项成果

数据更新时间:2023-05-31

其他相关文献

1

跨社交网络用户对齐技术综述

跨社交网络用户对齐技术综述

DOI:10.12198/j.issn.1673 − 159X.3895
发表时间:2021
2

伴有轻度认知障碍的帕金森病~(18)F-FDG PET的统计参数图分析

伴有轻度认知障碍的帕金森病~(18)F-FDG PET的统计参数图分析

DOI:10.3760/cma.j.issn.0376-2491.2018.33.004
发表时间:2018
3

基于多模态信息特征融合的犯罪预测算法研究

基于多模态信息特征融合的犯罪预测算法研究

DOI:
发表时间:2018
4

城市轨道交通车站火灾情况下客流疏散能力评价

城市轨道交通车站火灾情况下客流疏散能力评价

DOI:
发表时间:2015
5

基于FTA-BN模型的页岩气井口装置失效概率分析

基于FTA-BN模型的页岩气井口装置失效概率分析

DOI:10.16265/j.cnki.issn1003-3033.2019.04.015
发表时间:2019

相似国自然基金

1

基于时空上下文的主观视角行为识别方法研究

批准号:61571026
批准年份:2015
负责人:张弘
学科分类:F0116
资助金额:66.00
项目类别:面上项目
2

基于网络用户行为分析的垃圾网页识别方法研究

批准号:60903107
批准年份:2009
负责人:刘奕群
学科分类:F0211
资助金额:19.00
项目类别:青年科学基金项目
3

移动社交网络环境下企业虚拟社区的用户知识贡献行为研究

批准号:71761012
批准年份:2017
负责人:乐承毅
学科分类:G0112
资助金额:27.00
项目类别:地区科学基金项目
4

社会连接和认知负荷视角下网络用户从众信息行为研究

批准号:71874124
批准年份:2018
负责人:查先进
学科分类:G0414
资助金额:49.00
项目类别:面上项目