西安电子科技大学武斌获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉西安电子科技大学申请的专利基于FPGA的一维CNN-LSTM加速平台及实现方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115222028B 。
龙图腾网通过国家知识产权局官网在2025-07-04发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210804166.3,技术领域涉及:G06N3/063;该发明授权基于FPGA的一维CNN-LSTM加速平台及实现方法是由武斌;陈旭伟;李鹏;张葵;王钊;袁士博设计研发完成,并于2022-07-07向国家知识产权局提交的专利申请。
本基于FPGA的一维CNN-LSTM加速平台及实现方法在说明书摘要公布了:本发明公开一种基于FPGA的一维CNN‑LSTM加速平台及方法,该平台包括通用CPU和FPGA两部分,通用CPU解析一维CNN‑LSTM神经网络模型并生成指令序列加载到FPGA端的指令存储器,量化模型参数加载到FPGA端的结果存储器,FPGA端的控制器读取指令存储器中的运算指令并控制运算器完成相应的运算,所有运算指令完成后将最终的运算结果写入FPGA端的结果存储器供CPU读取。本发明通过复用同一个乘加阵列完成一维卷积和矩阵乘法两种运算的并行加速,解决了现有技术的单一加速方案中无法支持CNN‑LSTM神经网络模型计算的问题,大大提高了FPGA的计算资源利用率。
本发明授权基于FPGA的一维CNN-LSTM加速平台及实现方法在权利要求书中公布了:1.基于FPGA的一维CNN-LSTM加速平台,包括通用CPU和FPGA两部分,所述FPGA端包括指令存储器,数据存储器,结果存储器,控制器和运算器,其中: 所述通用CPU,用于编写用户提供的待加速的一维CNN-LSTM神经网络模型的运算指令序列并加载到FPGA端的指令存储器中,将一维CNN-LSTM神经网络模型参数及输入数据量化为定点数并加载到FPGA端的数据存储器中,在指令存储器的最高地址中写入运算启动指令,待所有运算指令执行完成后从结果存储器中读取最终运算结果; 所述指令存储器,用于存放在通用CPU端编写的用户提供的待加速的一维CNN-LSTM神经网络模型的运算指令序列; 所述数据存储器,用于存放在通用CPU端量化的一维CNN-LSTM神经网络模型的参数及输入数据; 所述结果存储器,用于存放最终的运算结果,供通用CPU读取; 所述控制器,用于监听运算启动指令,即监听指令存储器的地址线,当CPU向指令存储器的最高地址写入数据时,则表示监听到了通用CPU的计算启动指令,其中写入指令存储器最高地址的数据即为本次计算需要执行的总指令条数,在监听到运算启动指令后从指令存储器中读取一条运算指令发送到指令总线上,然后监听执行反馈总线,在监听到执行完成信号后再将下一条运算指令发送到指令总线上,直到所以指令执行完成后将指令存储器的最高地址清0,重新进入启动指令监听状态; 所述运算器包括控制单元、线性运算单元、非线性运算单元,用于执行控制器发送到指令总线上的运算指令;所述控制单元,用于根据指令内容生成相应的控制信息,控制线性运算单元和非线性运算单元完成相应的运算,并在运算指令执行完成后将指令执行完成信号发送到执行反馈总线上;所述线性运算单元由乘加阵列和乒乓式结构的结果缓存阵列组成,用于根据控制单元提供的控制信息从数据存储器中加载乘加阵列的权重参数w和偏置参数bias,从数据存储器或乒乓式结果缓存阵列的行或乒乓式结果缓存阵列的列或非线性运算单元的结果缓存中加载乘加阵列的输入数据,并根据控制单元提供的控制信息,对乘加阵列的运算结果进行最大池化P运算、线性整流R运算及通道加和运算操作后存储到乒乓式结果缓存阵列中,完成一维卷积运算和矩阵乘运算的并加速;所述非线性运算单元截取sigmoid和tanh两个非线性函数自变量在[-4,4之间的部分,并将其函数值量化为定点数存入ROM中,根据控制单元提供的控制信息对LSTM神经网络运算中的矩阵运算结果进行非线性激活时,将矩阵运算结果转换为存储非线性函数值得ROM的地址,读出相应的函数值,完成LSTM神经网络门控系数和神经元状态的更新。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西安电子科技大学,其通讯地址为:710071 陕西省西安市太白南路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。