Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 积分商城 国际服务 IP管家助手 科技果 科技人才 商标交易 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 电子科技大学蒙立伟获国家专利权

电子科技大学蒙立伟获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉电子科技大学申请的专利一种适用于神经形态硬件的脉冲神经网络压缩方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116187418B

龙图腾网通过国家知识产权局官网在2026-01-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310244958.4,技术领域涉及:G06N3/082;该发明授权一种适用于神经形态硬件的脉冲神经网络压缩方法是由蒙立伟;乔冠超;马瑞辰;胡绍刚;刘洋;于奇设计研发完成,并于2023-03-14向国家知识产权局提交的专利申请。

一种适用于神经形态硬件的脉冲神经网络压缩方法在说明书摘要公布了:本发明属于计算机视觉和机器学习技术领域,尤其涉及一种适用于神经形态硬件的脉冲神经网络压缩方法。本发明通过综合利用脉冲神经网络中脉冲神经元的统计特性和脉冲卷积通道中批归一化层中的统计数据,在不额外增加过多冗余结构的基础上,实现了高效的模型压缩效果,并在模型微调阶段通过引入稀疏性提高了剪枝后模型的性能。相比于传统的神经网络剪枝技术,该适用于神经形态硬件的脉冲神经网络压缩方法可以有效减少脉冲神经网络的模型体积,减少模型运算量且保证脉冲神经网络在剪枝后的性能损失在可接受范围内甚至在特定压缩率下还实现了模型性能的提升。

本发明授权一种适用于神经形态硬件的脉冲神经网络压缩方法在权利要求书中公布了:1.一种适用于神经形态硬件的脉冲神经网络压缩方法,其特征在于,包括以下步骤: 步骤1,数据预处理,利用翻转、旋转、随机裁剪和数据标准化方法对数据集中的数据进行标准化和数据增强; 步骤2,构建脉冲卷积神经网络,将网络从输入到输出方向定义为空间方向,将网络沿不同时间步的方向定义为时间方向,则: 沿空间方向,所构建的脉冲卷积神经网络依次包括脉冲编码模块,残差模块和脉冲输出模块;其中, 所述的脉冲编码模块为,沿空间方向依次包括第一卷积层,第一批归一化层和第一脉冲神经元层; 所述脉冲编码模块的输入为待识别图像,待识别图像根据图像数据种类的不同分为RGB静态数据和脉冲数据;待识别图像经过脉冲编码模块处理后输出为脉冲数据; 所述脉冲编码模块的第一卷积层的卷积核大小为3*3,输入通道与待识别图像通道保持一致;对于输入为RGB静态数据的情况,输入通道为3;对于输入为脉冲数据的情况,输入通道为2;第一卷积层的输出通道为64; 所述脉冲编码模块的第一批归一化层的输入为脉冲编码模块的第一卷积层输出,输出为64通道的批归一化后数据; 所述的脉冲编码模块的第一脉冲神经元层的输入为脉冲编码模块的第一批归一化层的输出,输出为经过IF神经元运算后的脉冲形式输出; 所述的残差模块,沿空间方向依次为第一脉冲残差块至第九脉冲残差块; 所述的脉冲残差块包含输入通道数、输出通道数两个可变参数,其中,脉冲残差块沿空间方向依次为:块内第一脉冲卷积层、块内第一批归一化层、块内第一脉冲神经元层、块内第一脉冲鉴别层、块内第二脉冲卷积层、块内第二批归一化层、块内第二脉冲神经元层、块内第二脉冲鉴别层和残差累加层; 所述的脉冲残差块的输入数据有两个流动方向,第一路数据流动方向为输入数据依次经过块内第一脉冲卷积层、块内第一批归一化层、块内第一脉冲神经元层、块内第一脉冲鉴别层、块内第二脉冲卷积层、块内第二批归一化层、块内第二脉冲神经元层、块内第二脉冲鉴别层到达残差累加层;第二路数据流动方向为:如果脉冲残差块的输入通道数和输出通道数不一致时,输入数据需要经过下采样脉冲卷积层和下采样脉冲神经元层再连接至残差累加层;如果脉冲残差块的输入通道数和输出通道数一致时,输入数据直接连接至残差累加层;脉冲残差块的输出为第二脉冲鉴别层的输出与第二路数据输出至残差累加层的数据的累加结果; 所述脉冲残差块的块内第一脉冲卷积层输入通道为脉冲残差块的输入通道数,输出通道数为脉冲残差块的输入通道数,卷积核大小为3*3;脉冲残差块的块内第二脉冲卷积层输入通道与输出通道均等于脉冲残差块的输出通道数,卷积核大小为3*3;脉冲残差块下采样脉冲卷积层的输入通道等于脉冲残差块输入通道数,输出通道等于脉冲残差块输出通道数,卷积核大小为1*1; 所述的残差模块从第一脉冲残差块至第九脉冲残差块的输入通道数和输出通道数依次为:64,64、64,64、64,64、64,128、128,128、128,128、128,256、256,256、256,256; 所述的残差模块输入为脉冲编码模块的脉冲输出,输出为经过残差模块运算后的第九脉冲残差块脉冲输出; 所述的脉冲输出模块沿空间方向,依次为输出池化层、输出脉冲神经元层和输出线性层; 所述的输出池化层为二维平均池化层,输出尺寸为1,1; 所述的输出线性层为全连接层,输入为256,输出为10; 步骤3,对步骤2中构建好的脉冲神经网络进行预训练,具体为采用基于梯度替代的反向传播算法进行训练,得到预训练模型,并将预训练模型进行存储;在预训练过程中,脉冲鉴别层将记录每一次迭代中,位于脉冲鉴别层前一脉冲神经元层中每一个脉冲神经元的脉冲发放情况; 步骤4,预剪枝阶段,根据设定的剪枝阈值,计算需要移除的卷积层的脉冲卷积通道数,并按照脉冲鉴别层的统计数据和每一个脉冲卷积通道缩放因子计算每一个卷积层中相应脉冲卷积通道的权重因子,根据通道权重因子数值大小标记哪些脉冲卷积通道可以被移除,并将预剪枝后的模型进行存储; 步骤5,对预剪枝后的脉冲神经网络模型进行验证,记录预剪枝中移除的通道对于脉冲神经网络模型性能的影响; 步骤6,剪枝阶段,加载预训练模型和通道掩膜矩阵,对于通道掩膜矩阵中被标记为可以移除的脉冲卷积通道、权重信息和这些脉冲卷积通道与模型中其余结构的连接,将全部从预训练模型中移除并获得剪枝模型; 步骤7,调整脉冲神经网络的损失函数,使得脉冲神经网络的损失计算引入稀疏性; 步骤8,模型微调阶段,对剪枝模型进行适当的微调训练以恢复剪枝模型的精度,获得微调模型; 步骤9,存储微调模型,计算模型性能、计算量、模型参数、模型体积相对于预训练模型的差异; 步骤10,模型部署阶段,将微调模型的网络结构和网络参数部署到神经形态硬件上进行推理。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人电子科技大学,其通讯地址为:611731 四川省成都市高新西区西源大道2006号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。