神经网络随机学习算法的泛化性研究

基本信息
批准号:11301494
项目类别:青年科学基金项目
资助金额:22.00
负责人:张永全
学科分类:
依托单位:中国计量大学
批准年份:2013
结题年份:2016
起止时间:2014-01-01 - 2016-12-31
项目状态: 已结题
项目参与者:季家兵,李有梅,银俊成,叶海良,车四方
关键词:
神经网络随机逼近泛化误差学习算法
结项摘要

The generalization ability of algorithm is one of the main stand quality to evaluate learning algorithm, and is one of the hot topics in machine learning research.This project is combined with "information theory", "approximation theory" and "stochastic approximation" in subjects such as theory and method, from the view of stochastic approximation, around upper and lower bound of generalization error of neural network stochastic approximation, sparse approximation for the three aspects of the study are as follows: (1) upper and lower of neural network stochastic learing algorithm are estimated by using approximation theory 、neural network、stochastic approximation and some probabilities; (2) sparse approximation of neural netqork is studied by using the way of compressed sensing; (3) application of neural network stochastic learning algorithm will be used in ranking problem. This project aims to study generalization error of learning algorithm and sparse approximation. We not only improve the upper bound of generalization error, but also obtain the lower bound. And then we give the essential approximated order of generalization performance and provide research approach and method of neural network learning.

算法的泛化能力是评价一个机器学习算法优劣的主要标准之一,也是当今机器学习研究的热点之一。本项目拟综合"信息论"、"逼近论"和"随机优化"等学科中的理论和方法,从随机逼近的角度,围绕神经网络随机学习算法泛化误差的上、下界估计和稀疏逼近等问题开展如下三方面研究:(1)利用函数逼近论中的正、逆定理、神经网络、随机逼近以及有关概率不等式,研究随机学习算法的泛化性与泛化误差的上、下界估计等问题;(2)利用压缩感知等方法研究神经网络的稀疏逼近。(3)神经网络随机学习算法的泛化结果在排序问题中的应用。本项目的研究意义在于采用随机逼近方法解决神经网络随机学习算法中的泛化误差估计和稀疏逼近等问题,不仅提高已有随机学习算法泛化误差的上界,而且给出该误差的下界估计,进而获得神经网络随机学习算法泛化性能的本质逼近阶,为神经网络学习算法的泛化性研究提供了新的研究途径和方法。

项目摘要

算法的泛化能力是评价机器学习算法优劣的主要标准之一,也是当今机器学习研究的热点之一。本文综合“信息论”、“逼近论”和“随机优化”等学科中的理论和方法,从随机逼近的角度,围绕神经网络随机学习算法泛化误差的上、下界估计和学习算法等问题获得了若干新的理论结果:(1)对于神经网络随机学习问题,构造了一种前向神经网络并研究了其对连续函数以及护可积函数的逼近误差,去掉了以前的文献中要求激活函数为奇函数的限制,提出了新的网络参数的设置。首先借助于概率不等式以及神经网络的逼近性质,分析了随机学习算法泛化性质,给出了泛化误差的上界估计。(2)在大数据的应用中,经常会遇到具有大量观测值的大规模数据集。为了处理这些大规模数据集,可以利用分布式学习算法进行处理。本文中,我们解决了分布式内核回归(DKR)问题这一根本问题,其中算法的可行性由估计量的泛化性能来度量。为了证明DKR的合理性,需将泛化误差分成样本误差、逼近误差和假设误差三部分进行估计,尤其是针对假设误差的研究,这在大数据设置中带来了新的挑战性问题。我们发现,利用核字典的样本集合,通过适当的样本分割,DKR会产生一个与未知回归函数泛化一致的估计量。这个结果理论上证明DKR是合理的,并通过数据实验进一步验证分布式算法的可行性。(3)当神经网络的神经元数大于样本容量时,就会出现过拟合问题,这是因为出现了比实际数据还多的参数(即变量个数多于约束条件个数)。为了克服过拟合问题,我们通过一个不需要满足压缩条件(RIP)的压缩映射减少神经网络中的神经元数。通过运用概率不等式和前向神经网络(FNNS)的逼近性质,我们证明了在压缩空间而不是原始空间解决前向神经网络随机学习算法虽然是以增加逼近误差为代价来降低样本误差,但是逼近误差的增量是可控的。

项目成果
{{index+1}}

{{i.achievement_title}}

{{i.achievement_title}}

DOI:{{i.doi}}
发表时间:{{i.publish_year}}

暂无此项成果

数据更新时间:2023-05-31

其他相关文献

1

基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例

基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例

DOI:
发表时间:2022
2

面向云工作流安全的任务调度方法

面向云工作流安全的任务调度方法

DOI:10.7544/issn1000-1239.2018.20170425
发表时间:2018
3

五轴联动机床几何误差一次装卡测量方法

五轴联动机床几何误差一次装卡测量方法

DOI:
发表时间:
4

惯性约束聚变内爆中基于多块结构网格的高效辐射扩散并行算法

惯性约束聚变内爆中基于多块结构网格的高效辐射扩散并行算法

DOI:10.19596/j.cnki.1001-246x.8419
发表时间:2022
5

物联网中区块链技术的应用与挑战

物联网中区块链技术的应用与挑战

DOI:10.3969/j.issn.0255-8297.2020.01.002
发表时间:2020

张永全的其他基金

批准号:61573326
批准年份:2015
资助金额:64.00
项目类别:面上项目

相似国自然基金

1

模糊神经网络的泛逼近和学习算法研究

批准号:61402227
批准年份:2014
负责人:何春梅
学科分类:F06
资助金额:25.00
项目类别:青年科学基金项目
2

Spiking神经网络学习算法研究

批准号:61273308
批准年份:2012
负责人:屈鸿
学科分类:F0601
资助金额:82.00
项目类别:面上项目
3

改善神经网络泛化性能的先验知识理论与实验研究

批准号:70771082
批准年份:2007
负责人:胡铁松
学科分类:G0104
资助金额:22.00
项目类别:面上项目
4

基于遗传算法的神经网络学习算法研究

批准号:69174004
批准年份:1991
负责人:张宁
学科分类:F0301
资助金额:3.40
项目类别:面上项目