北京理工大学陈禾获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京理工大学申请的专利一种基于高精度全加网络的机载和星载遥感场景分类方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116363409B 。
龙图腾网通过国家知识产权局官网在2025-07-04发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211680294.8,技术领域涉及:G06V10/764;该发明授权一种基于高精度全加网络的机载和星载遥感场景分类方法是由陈禾;张宁;王国庆;刘文超;陈亮设计研发完成,并于2022-12-26向国家知识产权局提交的专利申请。
本一种基于高精度全加网络的机载和星载遥感场景分类方法在说明书摘要公布了:本发明提供了一种基于高精度全加网络的机载和星载遥感场景分类方法,所提出的全加网络相较于传统的卷积神经网络,在硬件部署时所需的资源开销大幅降低;此外面向全加网络这种新颖的网络结构,通过所提出的训练方法大幅缓解了其性能损失,使用所提出的训练方法可以获得资源高效、性能优越的全加网络,适合被应用于资源敏感场景中进行硬件部署;在资源、功耗严格受限的应用环境中,本发明可以满足深度神经网络的庞大的计算量与存储需求,为实现机载、小卫星平台的多功能遥感影像在线智能场景分类提供了支撑,在灾害预警及应急、环境监测、情报收集等民事及军事领域中都发挥着重要作用。
本发明授权一种基于高精度全加网络的机载和星载遥感场景分类方法在权利要求书中公布了:1.一种基于高精度全加网络的机载和星载遥感场景分类方法,其特征在于,包括如下步骤: 步骤一、按照经典的卷积神经网络结构作为基础网络结构,设计网络结构中不包含卷积核,而是由加法核所构成的全加网络; 步骤二、利用机载和星载遥感场景的图片数据作为真实样本,训练与目标全加网络结构一致的卷积神经网络和加法网络,得到训练良好的卷积神经网络表示为fCNN,训练良好的加法网络表示为fANN; 步骤三、利用生成器Gθ生成数据分布与真实样本相似的假样本,作为生成样本 步骤四、通过损失函数LG对生成器Gθ进行优化: 其中,α和β为平衡三个损失函数的超参数; 损失函数如下所示: 其中,CE[·]表示交叉熵损失;表示训练良好的卷积神经网络对生成样本的输出,表示生成样本的标签; 损失函数LBN如下所示: 其中N表示卷积神经网络中的BN层数,和分别为生成样本在训练良好的卷积神经网络知识源模型中第i个BN层分布的均值和方差,μi和σi分别为存储在第i个BN层的训练良好的卷积神经网络中真实样本分布的均值和方差,MSE·为均方误差算子; 损失函数LD表示为: 和分别表示卷积神经网络和加法网络对生成样本的输出;MAE·为平均绝对误差算子,表示为: 其中B表示每次训练时设定的生成样本的批量大小; 步骤五、设计联合损失函数,用于优化学生全加网络,联合损失函数如下所示: 其中,λ是平衡损失函数的超参数; 损失函数表示为: 其中,是全加网络针对输入的真实样本的输出,l代表真实样本的真实样本类别; 损失函数如下所示: 其中T是超参数,它决定了标签的软程度,T的值越高,在类上的概率分布越柔和;KLDiv·是引入的Kullback-LeiblerKL散度函数;为全加网络使用真实样本作为训练数据,经由带T的softmax函数生成的类概率;PCNN为卷积神经网络使用真实样本作为训练数据,经由带T的softmax函数生成的类概率; 损失函数具体如下: 其中,为全加网络使用生成样本作为训练数据,经由带T的softmax函数生成的类概率;为卷积神经网络使用生成样本作为训练数据,经由带T的softmax函数生成的类概率; 步骤六、每次生成器生成一个批次的生成样本后,执行步骤四和步骤五,分别利用各自的损失函数完成对生成器和全加网络的一次优化;其中,生成器每完成一次优化,优化后生成器产生新的一个批次的生成样本,继续执行步骤四和步骤五;以此类推,在多个训练批次的迭代过程中,生成器和全加网络都被不断的优化更新;最终,构建了一个全加网络; 步骤七、利用优化后的全加网络对无人机载和星载的场景进行分类。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。