齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心)赵志刚获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心)申请的专利一种基于元学习的模型压缩方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117151173B 。
龙图腾网通过国家知识产权局官网在2025-07-29发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311119652.2,技术领域涉及:G06N3/0495;该发明授权一种基于元学习的模型压缩方法及系统是由赵志刚;杜文青;耿丽婷;王春晓;霍吉东;李传涛;张俭;李响设计研发完成,并于2023-08-31向国家知识产权局提交的专利申请。
本一种基于元学习的模型压缩方法及系统在说明书摘要公布了:本发明公开了一种基于元学习的模型压缩方法,包括:获取情感分类数据集并进行数据预处理;将预处理后的数据样本输入至模型压缩模块中,对预训练语言模型压缩,在推理阶段实现情感分类结果的输出,所述模型压缩模块包含微调、剪枝、元学习蒸馏等操作。所述微调阶段,基于数据集训练预训练语言模型得到第一教师模型;剪枝阶段,利用缩放系数剪枝第一教师模型,得到第一学生模型;基于数据集和蒸馏训练方法训练得到第二学生模型,并将第二模型部署于终端,实现情感分类预测。本发明采用模型压缩方法应用于大模型情感分类预测,保证情感分类结果精度的情况下,降低了模型参数量,更利于部署应用。
本发明授权一种基于元学习的模型压缩方法及系统在权利要求书中公布了:1.一种基于元学习的模型压缩方法,其特征在于,包括如下步骤: 构建情感分类数据集,划分训练、测试、验证样本集,并对数据集进行预处理,调整输入格式; 将预处理后的数据样本作为输入,获取预训练语言模型Bert_base,利用基于元学习的知识蒸馏压缩方法实现模型压缩,在模型压缩推理部署阶段,实现文本情感分类结果的输出;所述基于元学习的知识蒸馏压缩方法包含微调、剪枝、元学习蒸馏阶段; 其中,所述微调阶段为,基于预处理后的情感分类数据集训练预训练语言模型得到第一教师模型;所述剪枝阶段为,利用缩放系数剪枝第一教师模型,得到第一学生模型;所述元学习蒸馏阶段为,根据得到的第一教师模型和第一学生模型,基于预处理后的情感分类数据集和基于元学习的蒸馏训练方法训练得到第二学生模型;所述基于元学习的蒸馏训练方法包括: 获取预处理后的SST2训练、测试数据集,预设学习率、批次数、迭代次数参数; 首先复制第一学生模型S为S’,输入SST2训练数据,使用Tokenizer将输入数据进行格式转换,输入数据首先经过Embedding层,后依次通过S’的12层编码层,包含MHA层以及FFN层,该过程对S’进行反向传播; 在测试数据集中划分独立的测试集Q,对S’进行测试,并计算损失函数;同时第一教师模型根据S’的蒸馏损失结果作为反馈信号,将损失结果传递给第一教师模型;随后丢弃S’,以更新后的损失参数更新S,迭代训练后得到第二学生模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心),其通讯地址为:250353 山东省济南市长清区大学路3501号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。