Artificial intelligence has experienced tremendous progress in recent years. However, its energy efficiency is still very low, therefore could not meet the growing demands for user end intelligence and edge computing. This research will investigate the use of analog circuit techniques to assist digital processors to significantly improve the energy efficiency of computing, and design the next-generation digital/analog mixed-mode computing ICs for artificial intelligence applications. It will focus on the computing for deep neural network, while addressing the common challenges for high-performance computing. The research will cover the following eight areas: digital-to-analog and analog-to-digital conversions; mixed-mode multiplier accumulator (MAC); nonlinear function implementation; mixed-signal data transport; data storage system; mixed-mode deep convolutional neural network (DCNN)processing architecture; mixed-mode DCNN processor IC implementation; and use of mixed-mode computing in real DCNN image recognition applications. In this project, we plan to build a mixed-mode DCNN processor IC, establish a simulation and verification platform for the mixed-mode computing architecture, complete the circuit implementation and performance evaluation of key building blocks, apply mixed-mode computing in DCNN image recognition, and finally evaluate the future potential of mixed-mode computing in artificial intelligence. It is expected to achieve major innovations in three areas: improvement of switched-capacitor MAC accuracy, speed and energy efficiency; on-chip current-mode mixed-signal data transport network; and parallel array processing architecture of mixed-mode computing.
近年人工智能技术取得巨大进步,然而其能量效率仍十分低下,无法满足终端化和边缘计算的需要。本项目拟面向人工智能应用,聚焦深度神经网络计算问题,兼顾高性能计算面临的共性问题,研究利用模拟电路技术辅助数字处理器以大幅度提高计算能量效率的新一代数模混合计算芯片。本项目将在数模模数转换、混合运算乘法累加器、非线性运算、混合信号数据搬运、数据存储体系、数模混合深度卷积神经网络处理架构、数模混合深度卷积神经网络计算芯片、利用混合计算的深度神经网络图像识别系统等八方面开展研究;研制数模混合深度卷积神经网络计算芯片,构建数模混合计算架构的仿真验证平台,完成各类模块的电路实现和性能评估,利用数模混合计算实现深度神经网络图像识别,评估数模混合计算技术在人工智能中的应用前景;在开关电容式乘法累加运算单元精度/速度/能效的提高、片上电流模式多值混合信号数据搬运网络、数模混合计算的阵列式并行处理架构等三方面实现创新。
本项目的主要研究内容包括以下五个方面。数字乘法累加器(MAC)的优化算法和结构,通过对多种数字MAC实现方案的研究和比较,发现采用分布式算术(DA)结构的MAC是最节省硬件面积的MAC结构。使用改进的DA结构实现高阶有限冲激响应(FIR)数字滤波器中的MAC运算,数字综合后的面积为采用通用乘法器的四分之一,较综合工具自动优化缩小了14 %,同时功耗也显著降低。高速并行数字矢量运算的高效率架构和算法,基于转置(Transpose)结构的可配置并行矢量运算架构,在乘加单元处理速度有限的情况下实现远高于单元处理速度的并可灵活配置的运算吞吐率;利用查找表(LUT)实现多比特乘法,可降低硬件开销与功耗,提高处理速度;通过变换域运算将矢量运算转换为点乘运算,从而一些运算场景下显著提高运算效率;基于查找表和基函数实现高效率的高阶非线性数字矢量运算;以及结合以上技术实现运算系数的迭代计算、存储和更新,从而支持自适应数字矢量运算。开关电容式(SC)混合信号MAC的设计及电容失配误差的校准算法,SC MAC通过一个开关电容阵列实现数模转换、乘加运算、数据存储和模数转换的功能,支持8比特的输入输出位宽,并能工作到200MHz以上时钟频率,同时提出了一套开关电容阵列电容失配误差的精确校准算法和流程。图像识别、语音识别、文字识别等应用中神经网络的架构和算法研究。先后研究了ShuffleNet V2和序列预测网络结构及其在端到端自动驾驶中的应用,DS-CNN网络结构及其轻量级硬件实现和在语音关键词识别中的应用,脉冲神经网络(SNN)及其在文字和语音识别中的应用,以及基于SNN的类脑芯片片上异步可塑互连技术等。基于神经网络的低功耗语音关键词识别(KWS)算法及其硬件实现,设计了基于MFCC的5级流水线语音特征提取模块,完成了用于关键词识别(KWS)的深度分离卷积神经网络(Convolutional Neural Network,CNN)算法,并研究了基于脉冲神经网络(Spike Neural Network,SNN)的 KWS 算法,MFCC + DS-CNN的识别精度达到 95%, MFCC + SNN的识别精度达到 87%。
{{i.achievement_title}}
数据更新时间:2023-05-31
基于SSVEP 直接脑控机器人方向和速度研究
基于公众情感倾向的主题公园评价研究——以哈尔滨市伏尔加庄园为例
基于图卷积网络的归纳式微博谣言检测新方法
多源数据驱动CNN-GRU模型的公交客流量分类预测
基于混合优化方法的大口径主镜设计
面向深度神经网络加速的高能效RRAM存内计算芯片技术研究
面向流计算的高能效NoC体系结构研究
面向智能计算的高能效可编程可重构计算器件研究
面向深度学习的高能效FPGA计算架构及映射方法研究