Modeling and simulation technology is widely used in military, aerospace, aviation and other important areas. It is a key technology that the U.S. and other developed countries are striving to develop. Big data brings new opportunities and challenges to the simulation technology. CPU and GPU or other heterogeneous many-core processor collaborative computing is considered to be the inevitable trend to solve the big data high-throughput simulation problems. However, the communication bottleneck of cpu/gpu collaborative computing not only decrease the computation performance but also put forward higher requirements on simulation development, thus it becomes a key problem restricting the technology popularization and application.This research focus on the cpu/gpu data communication problem in heterogeneous collaborative computing and investigate the data communication features and data transmission patterns on directive-based mixed code. The research will analyse the data flow characteristics and data communication rules of mixed program contain directives. The data flow aware communication statement migration and asynchronization, optimal communication fusion and hiding will all be studied in the research. Through the modified data flow analysis approach, the data communication model and optimization theory for heterogeneous mixed program will be established, this will lay the theoretical and technical basis for promoting the development and application of big data high-throughput simulation.
建模与仿真技术广泛应用于军事、航天、航空等重要领域,是欧美等发达国家竞相发展的关键技术。大数据给仿真技术带来新的机遇和挑战,CPU与GPU等异构众核处理器协同计算是解决大数据高通量仿真计算问题的必然趋势。然而,CPU/GPU协同计算时的通信瓶颈不仅阻碍其充分发挥计算性能也对仿真开发提出了更高的要求,成为制约该项技术推广应用的关键问题。本项目以CPU/GPU异构协同计算的数据通信为研究对象,对包含编译制导语句的混合程序数据通信特征和数据传输规律进行基础科学研究。具体内容包括:分析包含编译制导语句的混合程序数据流特征和数据通信规律;研究数据流信息感知的通信指令迁移方法与最优化通信融合模型;研究数据流信息感知的通信指令异步化方法与最优通信隐藏机制。通过改造的数据流分析方法,建立面向异构计算的混合程序数据通信模型与优化理论,为推动我国大数据高通量仿真发展与应用奠定理论和技术基础。
高通量仿真是以云计算、大数据和物联网发展为引导的新一代仿真技术,本项目主要关注大数据高通量仿真中异构计算环境的通信和建模优化问题。当仿真系统建立在大数据中心和物联网边缘设备之上时,会面临很多的性能问题,其中最典型的就是与数据相关的传输、存储和执行延迟。本项目主要研究高通量仿真中异构计算环境CPU与GPU协同计算时的数据传输优化;高通量仿真中异构环境数据存储优化以及仿真服务部署优化三个方面的问题。设计了基于数据流特征和数据通信规律的数据传输指令迁移方法和基于核函数数据交换指令合并的数据通信优化方法,将高通量异构计算环境中数据传输平均提高了32.5%。分析和设计了基于线性哈希的动态可扩展高通量仿真小文件存储方法,设计的单级索引结构能够在减少内存消耗的同时提高数据访问性能,其中数据存储性能与原有存储系统HDFS中提供的多种方案相比性能提升数十倍,影响更关键的是数据的随机访问性能,该方法比HDFS性能提升40%,与MapFile相比性能平均提升5倍,比HAR性能平均提升4倍。因此可以看出本项目提出的数据访问方法能够在大数据高通量仿真中起到非常关键的作用,拥有良好的应用前景。提出了基于深度强化学习模型的高通量仿真服务边缘侧部署优化方法,该方法在满足众多约束的前提下将仿真服务尽量部署在边缘侧,使仿真模型和服务生成的数据尽量本地存储和处理,在必要的时候经过网络存储到云中,这样进一步的减少了数据通信,提高仿真的执行性能。实验效果良好,与现有最好方法相比,本项目提出的方法可以将在本地执行的仿真服务数量提高13.4%,总体响应时间提高5%。综上所述,本项目在几个方面的研究成果能够有效的提高高通量仿真的性能,在数据传输、存储与执行方面取得了良好的效果,对于推动我国大数据高通量仿真的发展具有推动意义。
{{i.achievement_title}}
数据更新时间:2023-05-31
玉米叶向值的全基因组关联分析
论大数据环境对情报学发展的影响
粗颗粒土的静止土压力系数非线性分析与计算方法
正交异性钢桥面板纵肋-面板疲劳开裂的CFRP加固研究
硬件木马:关键问题研究进展及新动向
面向城市交通通道仿真的交通流建模与组织优化
面向分时电价的大极板锌电解过程建模与优化控制方法
面向社群智能的认知网络中机会数据通信机制研究
面向进化基因组学的高通量测序数据流形建模