北京中科通量科技有限公司谭勇获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京中科通量科技有限公司申请的专利一种基于小样本学习的数据增强和可学习参数的阈值损失优化方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118799681B 。
龙图腾网通过国家知识产权局官网在2025-07-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411013608.8,技术领域涉及:G06V10/774;该发明授权一种基于小样本学习的数据增强和可学习参数的阈值损失优化方法是由谭勇;罗鑫;琚午阳设计研发完成,并于2024-07-26向国家知识产权局提交的专利申请。
本一种基于小样本学习的数据增强和可学习参数的阈值损失优化方法在说明书摘要公布了:本发明提供一种基于小样本学习的数据增强和可学习参数的阈值损失优化方法,包括以下步骤:对小样本进行一阶段实际背景图离线增强、一阶段纯色背景图离线增强、二阶段融合增强,形成训练样本集;建立深度学习神经网络模型;所述深度学习神经网络模型具有可学习参数p;采用可学习参数的阈值损失优化方法进行模型训练。本发明提供一种基于小样本学习的数据增强和可学习参数的阈值损失优化方法,通过结合小样本二阶段数据增强技术和可学习参数的阈值损失优化,本发明实现了在极少样本背景下的可实用工程创新方案,极大提升了相关小样本领域的模型鲁棒性和泛化能力,同时也提高了各类别的预测准确性,减少了误检的发生。
本发明授权一种基于小样本学习的数据增强和可学习参数的阈值损失优化方法在权利要求书中公布了:1.一种基于小样本学习的数据增强和可学习参数的阈值损失优化方法,其特征在于,包括以下步骤: 步骤S1,建立实际背景图样本库G和小样本图样本库S;所述实际背景图样本库G中存储多张实际背景图,每张实际背景图表示为Gi;所述小样本图样本库S中存储多张小样本图,每张小样本图表示为Sj; 步骤S2,遍历所述小样本图样本库S,对于遍历到的每张小样本图Sj,基于所述实际背景图样本库G中的实际背景图,对所述小样本图Sj进行一阶段实际背景图离线增强,扩充小样本图Sj,得到一阶段实际背景图离线增强后的样本图F,其标签为lableF; 步骤S3,遍历所述小样本图样本库S,对于遍历到的每张小样本图Sj,进行一阶段纯色背景图离线增强,扩充小样本图Sj,得到一阶段纯色背景图离线增强后的样本图I,其标签为lableI; 步骤S4,对样本图F和样本图I,采用公式1进行二阶段融合增强,得到融合增强后的样本图Mix,其标签为lableMix: Mix=λ·F+1-λ·I1 lableMix=λ·lableF+1-λ·lableI 其中,λ为Beta分布中随机采样的混合系数; 步骤S5,通过步骤S2到S4,得到由多张样本图F、样本图I和样本图Mix形成的训练样本集; 步骤S6,建立深度学习神经网络模型;所述深度学习神经网络模型具有可学习参数p; 步骤S7,采用训练样本集对所述深度学习神经网络模型进行训练,得到训练完成的深度学习神经网络模型,具体训练方法为: 步骤S7.1,令可学习参数p初始化为单位矩阵;样本图F、样本图I和样本图Mix分别具有初始强度; 步骤S7.2,迭代次数t初始值为1; 步骤S7.3,采用在线数据增强模块,根据公式2,对样本图F、样本图I和样本图Mix进行在线数据增强强度处理,得到处理后的样本图F、样本图I和样本图Mix,方法为: 其中: At是第t轮训练的样本图在线数据增强强度; A0是样本图初始强度; t是当前迭代次数; T是总迭代次数; ηt是第t轮训练的学习率; η0是初始的学习率; py是第t轮训练的可学习参数值; 步骤S7.4,将步骤S7.3处理后的样本图F、样本图I和样本图Mix,输入深度学习神经网络模型进行训练; 步骤S7.5,令t=t+1,返回步骤S7.3,如此不断迭代训练,直到达到训练终止条件。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京中科通量科技有限公司,其通讯地址为:100176 北京市大兴区经济技术开发区荣华中路19号院1号楼A座7层711C室;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。