中山大学陈武辉获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中山大学申请的专利神经网络压缩方法、装置、设备及可读存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114611673B 。
龙图腾网通过国家知识产权局官网在2025-12-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210264300.5,技术领域涉及:G06N3/082;该发明授权神经网络压缩方法、装置、设备及可读存储介质是由陈武辉;巫继强;赵昊立;郑子彬设计研发完成,并于2022-03-17向国家知识产权局提交的专利申请。
本神经网络压缩方法、装置、设备及可读存储介质在说明书摘要公布了:本申请公开了神经网络压缩方法、装置、设备及可读存储介质,本申请获取待压缩的多层级深度学习神经网络及网络损失;确定与多层级深度学习神经网络对应的稀疏编码及稀疏权重,如此,可去除多层级深度学习神经网络中冗余参数及权重;确定稀疏编码损失及稀疏权重损失;将网络损失、稀疏编码损失及稀疏权重损失进行融合,得到压缩损失;利用压缩损失对多层级深度学习神经网络进行压缩,得到压缩后的多层级深度学习神经网络。可见,本申请可实现对该待压缩的多层级深度学习神经网络进行双重压缩,减少冗余参数,以降低神经网络的计算性能损耗。本申请对多层级深度学习神经网络的各层级进行稀疏编码及稀疏权重,可避免深度学习神经网络中的强串扰问题。
本发明授权神经网络压缩方法、装置、设备及可读存储介质在权利要求书中公布了:1.一种神经网络压缩方法,其特征在于,包括: 将标注有标签的样本集输入至待压缩的多层级深度学习神经网络中,得到待压缩的多层级深度学习神经网络各层级的输出; 基于各层级的输出与各层级对应的样本集的标签,计算待压缩的多层级深度学习神经网络的整体损失,作为网络损失,所述多层级深度学习神经网络为医学图像分析网络; 确定与所述多层级深度学习神经网络对应的稀疏编码及稀疏权重; 确定所述稀疏编码对应的稀疏编码损失及所述稀疏权重对应的稀疏权重损失; 将所述网络损失、所述稀疏编码损失及所述稀疏权重损失进行融合,得到融合后的压缩损失; 利用所述压缩损失对所述多层级深度学习神经网络的各层级输出过程中的参数进行压缩,得到压缩后的多层级深度学习神经网络; 所述压缩损失的表达式如下所示: ; 式中,为压缩损失;为多层级深度学习神经网络的参数集;为多层级深度学习神经网络第L层的输出,L表示多层级深度学习神经网络的最后一层;为输出层的权重系数集合;ri+1表示i+1时刻的奖励;表示t+1时刻的折扣率;F为网络损失;为权重调节参数,用于调节稀疏权重的稀疏性;表示编码系数;G为稀疏性分布集合;表示稀疏权重惩罚项;为多层级深度学习神经网络的第层的权重系数集合;表示输入为si时,多层级深度学习神经网络第L层的输出;表示权重参数;表示输入为时,多层级深度学习神经网络第L层的输出的转置;表示输入为时,多层级深度学习神经网络第L层的输出的转置;为多层级深度学习神经网络中第层对应的输出分布,该输出分布为指数分布;为调节编码期望值的参数值;为分布差值;是中第k行j列的元素;一共有列,行。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中山大学,其通讯地址为:510275 广东省广州市新港西路135号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励