基于特性分析的大规模机器学习性能优化关键技术研究

基本信息
批准号:61672200
项目类别:面上项目
资助金额:65.00
负责人:张纪林
学科分类:
依托单位:杭州电子科技大学
批准年份:2016
结题年份:2020
起止时间:2017-01-01 - 2020-12-31
项目状态: 已结题
项目参与者:周丽,秦飞巍,任永坚,张伟,谭敏,肖俊峰,吾雨森,梁敏军,屠杭镝
关键词:
性能优化技术大规模分布式系统并行编程模型机器学习密集迭代收敛性
结项摘要

Large scale machine learning system has made great achievements in many fields for its powerful learning ability. However, the computation intensive and I/O intensive features of machine learning algorithms have been the challenge of machine learning to achieve a higher performance. This project will study the parallel computing model for intensive iterative convergent machine learning applications,and construct the performance model, and analyze the universality, scalability and fault tolerance of the model according to the characteristics of parallel machine architecture and computing resource expansion model and change characteristics of machine learning applications. On the model of the universality, scalability and fault tolerance for theoretical analysis, and then make a research of performance optimization guidance theory for the model of the data layer, computing layer and communication layer; On this basis,we study the loose type parallel scheduling strategy and set up the communication management model in the light of the characteristics of the intensive iterative convergent machine learning algorithm, the communication management model is studied through continuous communication strategy, priority setting strategy and parameter time sharing broadcasting policy; we build a machine learning algorithm runtime overhead analysis model to break through the traditional optimization methods to select and optimize the timing constraints. Besides, thanks for the model selection and resource mix strategy, after a research of resource dynamic management method, efficiently improve the resource utilization and the parallel system performance. The research results of this project can improve the performance of large scale machine learning, which is of great significance to the intelligent analysis of the big data application.

大规模机器学习系统以其强大的学习能力在诸多应用领域取得了惊人成果,但机器学习算法的计算密集型和I/O密集型特点一直是机器学习向更高性能发展面临的挑战。本项目将针对并行机体系结构、计算资源扩展模式和机器学习应用特征的变化特点,研究密集迭代收敛型机器学习应用的并行计算模型,并构造性能模型,对模型的普适性、扩展性与容错性进行理论分析,进而针对模型的数据层、计算层和通信层,研究性能优化指导理论;在此基础上,围绕密集迭代收敛型机器学习算法特性,研究松散型并行调度策略,建立多迭代同步管理模型,通过连续通信策略、优先级设定策略、参数分时广播策略研究通信管理模型;突破传统的优化方法选择和优化时机限制,构建机器学习算法的运行时开销分析模型,研究资源动态管理方法,通过模型选择和资源组合策略,有效提高资源利用率以及系统并行性能。本项目研究成果可以很好地提高大规模机器学习的性能,对于大数据智能分析具有重要意义。

项目摘要

大规模机器学习系统以其强大的学习能力在诸多应用领域取得了惊人成果,但机器学习算法的计算密集型和I/O密集型特点一直是机器学习向更高性能发展面临的挑战。本项目针对并行机体系结构、计算资源扩展模式和机器学习应用特征的变化特点,研究密集迭代收敛型机器学习应用的并行计算模型,并构造性能模型,对模型的普适性、扩展性与容错性进行理论分析,进而针对模型的数据层、计算层和通信层,研究性能优化指导理论;在此基础上,围绕密集迭代收敛型机器学习算法特性,研究松散型并行调度策略,建立多迭代同步管理模型,通过连续通信策略、优先级设定策略、参数分时广播策略研究通信管理模型;突破传统的优化方法选择和优化时机限制,构建机器学习算法的运行时开销分析模型,研究资源动态管理方法,通过模型选择和资源组合策略,有效提高利用率以及系统并行性能。本项目研究成果很好地提高了大规模机器学习的性能,对于大数据智能分析具有重要意义。

项目成果
{{index+1}}

{{i.achievement_title}}

{{i.achievement_title}}

DOI:{{i.doi}}
发表时间:{{i.publish_year}}

暂无此项成果

数据更新时间:2023-05-31

其他相关文献

1

EBPR工艺运行效果的主要影响因素及研究现状

EBPR工艺运行效果的主要影响因素及研究现状

DOI:10.16796/j.cnki.1000-3770.2022.03.003
发表时间:2022
2

一种基于多层设计空间缩减策略的近似高维优化方法

一种基于多层设计空间缩减策略的近似高维优化方法

DOI:10.1051/jnwpu/20213920292
发表时间:2021
3

复杂系统科学研究进展

复杂系统科学研究进展

DOI:10.12202/j.0476-0301.2022178
发表时间:2022
4

基于LS-SVM香梨可溶性糖的近红外光谱快速检测

基于LS-SVM香梨可溶性糖的近红外光谱快速检测

DOI:
发表时间:
5

新型树启发式搜索算法的机器人路径规划

新型树启发式搜索算法的机器人路径规划

DOI:10.3778/j.issn.1002-8331.1903-0411
发表时间:2020

张纪林的其他基金

批准号:61202094
批准年份:2012
资助金额:24.00
项目类别:青年科学基金项目

相似国自然基金

1

基于机器学习的高性能自适应信息抽取关键技术研究

批准号:60673041
批准年份:2006
负责人:周国栋
学科分类:F0211
资助金额:27.00
项目类别:面上项目
2

大规模机器学习问题的结构优化方法研究

批准号:61273296
批准年份:2012
负责人:陶卿
学科分类:F0603
资助金额:83.00
项目类别:面上项目
3

面向大规模机器学习的高效优化算法研究

批准号:61806128
批准年份:2018
负责人:彭涵阳
学科分类:F0603
资助金额:25.00
项目类别:青年科学基金项目
4

基于机器学习的精密检测若干关键技术研究

批准号:51765007
批准年份:2017
负责人:葛动元
学科分类:E0510
资助金额:37.00
项目类别:地区科学基金项目