基于微型批量采样的分布式多智能个体网络协同优化算法研究

基本信息
批准号:61503308
项目类别:青年科学基金项目
资助金额:21.00
负责人:王慧维
学科分类:
依托单位:西南大学
批准年份:2015
结题年份:2018
起止时间:2016-01-01 - 2018-12-31
项目状态: 已结题
项目参与者:谢棠棠,周博,孟亚伟,卢宇,李永平,赵集,华伟
关键词:
微型批量采样大规模数据多智能个体网络一致性分布式优化
结项摘要

The traditional optimization algorithms based on batching are no longer suitable for solving large scale data optimization problems due to increasingly large scale of data. The proposed distributed optimization algorithms based on mini-batch gradients sampling, both collecting the strengths of low implementation requirements, high efficiency, strong privacy protection and anti-interference of distributed optimization algorithms, and playing the characteristics on the generalization ability of the data sample and parallel implementation of batch sampling, are the ideal way to solve the large scale data optimization problems at present. By utilizing random disturbance smoothing technology for partly unknown objective functions, and referring to the thoughts of mirror descent methods, accelerating gradient methods, proximal gradient methods and dual-averaging methods, we could design a series of distributed optimization algorithms oriented large scale data. By using spectral graph theory and Bregman distance theory, we analyze the convergence error, convergence rate and computing complexity of the algorithms, and deeply explore the relationship among convergence performance of algorithms, algorithms parameters, the network scale as well as parameters of constraint conditions. We train algorithms and test algorithms by utilizing the actual data set, and gradually improve the algorithm performance. Systematically studying distributed optimization algorithms based on mini-batch gradients sampling, will have an impact on exploring the solving methods for the large scale data optimization problems.

日益庞大的数据规模使得基于批处理的传统优化算法不再适用于求解大规模数据优化问题。本项目提出的基于微型批量梯度采样的分布式优化算法,既发挥了分布式优化算法低实施要求、高运行效率、强隐私保护以及抗通信干扰的特点,也体现了数据样本的泛化能力和并行实施批量采样的特点,是目前解决大规模数据优化问题的理想方案。通过随机扰动光滑化法处理优化问题的部分未知目标函数,借鉴镜面下降法、加速梯度法、临近梯度法、对偶平均法等思想,设计出一系列面向大规模数据处理的分布式优化算法,利用谱图理论和Bregman距离理论,分析算法的收敛误差、收敛速率和计算复杂性,并深入挖掘算法收敛性能与算法参数、网络标度和约束条件等参数之间的关系。利用实际数据集训练和检验算法,并逐步改进和提升算法性能。系统地研究基于微型批量梯度采样的分布式优化算法,对于探索面向大规模数据优化问题求解方法具有一定的推动作用。

项目摘要

传统的数据处理与分析方法面对日益庞大而复杂的数据,特别是大规模的动态流式数据,已无法再进行有效的获取,及优化分析数据背后隐含的意义。本项目提出的基于微型批量随机梯度采样的分布式优化算法、无模型在线增强学习算法,既发挥了分布式优化算法低实施要求、高运行效率、强隐私保护以及抗通信干扰的特点,也体现了数据样本的泛化能力和并行实施批量采样的特点,是目前解决大规模数据优化问题的理想方案。在分布式优化与学习算法应用方面,首先将提出的算法应用到求解智能电网需求响应问题,为此,项目团队提出了一种基于重复博弈的能源交易框架,使每个微电网能够独立地且随机地选择一个在可信的能源市场进行交易的策略,从而最大化他的平均收益。通过建立平均效用最大化和最佳策略之间的关系,提出了两个基于学习自动机的算法来求解纳什均衡点,以适应不同的策略环境。其次,将提出的算法应用到求解无线传感器网络的平均一致估计问题,严苛的通信环境允许新的传感器节点加入和旧的传感器节点离开,并可以容忍通信链路故障。针对这样的网络,提出一个异步算法来估计不可靠的网络中的未知参数,其中,每个传感器在其被唤醒时可以访问部分信息测量。综上,本项目系统地研究了分布式优化算法以及其应用,对于探索面向大规模数据优化问题求解方法具有一定的推动作用。本项目发表学术论文12篇,其中SCI收录9篇,EI收录3篇,培养博士生1名,硕士生4名,圆满完成预期目标。

项目成果
{{index+1}}

{{i.achievement_title}}

{{i.achievement_title}}

DOI:{{i.doi}}
发表时间:{{i.publish_year}}

暂无此项成果

数据更新时间:2023-05-31

其他相关文献

1

论大数据环境对情报学发展的影响

论大数据环境对情报学发展的影响

DOI:
发表时间:2017
2

跨社交网络用户对齐技术综述

跨社交网络用户对齐技术综述

DOI:10.12198/j.issn.1673 − 159X.3895
发表时间:2021
3

自然灾难地居民风险知觉与旅游支持度的关系研究——以汶川大地震重灾区北川和都江堰为例

自然灾难地居民风险知觉与旅游支持度的关系研究——以汶川大地震重灾区北川和都江堰为例

DOI:10.12054/lydk.bisu.148
发表时间:2020
4

基于多模态信息特征融合的犯罪预测算法研究

基于多模态信息特征融合的犯罪预测算法研究

DOI:
发表时间:2018
5

城市轨道交通车站火灾情况下客流疏散能力评价

城市轨道交通车站火灾情况下客流疏散能力评价

DOI:
发表时间:2015

王慧维的其他基金

相似国自然基金

1

基于多智能体系统的分布式凸优化算法研究

批准号:61304042
批准年份:2013
负责人:袁德明
学科分类:F0301
资助金额:25.00
项目类别:青年科学基金项目
2

多智能体网络中的高效分布式一致优化算法研究

批准号:61573331
批准年份:2015
负责人:凌青
学科分类:F0301
资助金额:65.00
项目类别:面上项目
3

基于变分分析的多智能体分布式优化算法研究

批准号:61903027
批准年份:2019
负责人:梁舒
学科分类:F0301
资助金额:27.00
项目类别:青年科学基金项目
4

基于采样的异步多智能体系统协同控制研究

批准号:61873074
批准年份:2018
负责人:肖峰
学科分类:F0301
资助金额:55.00
项目类别:面上项目