湖南科技大学冯兆宇获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉湖南科技大学申请的专利一种基于边缘引导双重对齐的半监督场景变化检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN121686383B 。
龙图腾网通过国家知识产权局官网在2026-04-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202610169820.6,技术领域涉及:G06V20/54;该发明授权一种基于边缘引导双重对齐的半监督场景变化检测方法是由冯兆宇;文一凭;陈爱民设计研发完成,并于2026-02-06向国家知识产权局提交的专利申请。
本一种基于边缘引导双重对齐的半监督场景变化检测方法在说明书摘要公布了:本发明公开了一种基于边缘引导双重对齐的半监督场景变化检测方法,包括以下步骤:采集图像数据并划分训练集;构建边缘增强的场景变化检测网络;计算监督损失;得到预测对齐损失;得到边缘特征对齐损失;通过监督损失、边缘特征对齐损失以及预测对齐损失共同优化网络参数,得到训练好的场景变化检测网络;基于训练好的场景变化检测网络,进行场景变化检测。本发明在有效利用无标注数据的同时兼顾整体检测准确性与变化边界细节,使模型复杂场景下实现对变化目标的精细边界分割,从而生成在变化边界区域清晰、准确的变化预测概率图。
本发明授权一种基于边缘引导双重对齐的半监督场景变化检测方法在权利要求书中公布了:1.一种基于边缘引导双重对齐的半监督场景变化检测方法,其特征在于,包括以下步骤: 步骤S1:采集双时相街道场景图像数据,并划分为有标注训练集和无标注训练集; 步骤S2:构建边缘增强的场景变化检测网络;场景变化检测网络包括两个权重共享的特征提取子网络和一个预测头模块; 两个特征提取子网络包括依次设置的CNN骨干网络、边缘增强空洞空间金字塔模块EDSP以及视觉Transformer模块ViT; 在每个特征提取子网络中,CNN骨干网络首先提取每个时相的特征,然后通过边缘增强空洞空间金字塔模块EDSP增强边缘信息和多尺度上下文,最后,视觉Transformer模块ViT捕获长距离依赖关系并建模全局上下文;特征提取完成后,对双时相图像特征进行差分并输入到预测头模块,通过转置卷积恢复至图像原始分辨率,最终得到场景变化的像素级概率预测结果; EDSP通过多尺度空洞卷积分支与边缘增强分支这两个并行的分支实现特征的多尺度融合与边缘增强;EDSP的操作步骤包括: 第一步:CNN骨干网络提取的特征图,输入多尺度空洞卷积分支提取多尺度上下文信息; 多尺度空洞卷积分支采用并行的无膨胀和填充的1×1卷积、膨胀率和填充率均为3的3×3卷积、膨胀率和填充率均为5的3×3卷积、膨胀率和填充率均为7的3×3卷积,每个卷积之后进行批归一化BN和Relu激活函数;通过这些不同膨胀和填充的空洞卷积提取多尺度上下文信息,并缩减空间分辨率,分别得到四个特征; 第二步:采用边缘增强分支对特征图增强其边界信息,获得边缘增强的特征; 第三步:在通道维度上对进行特征拼接,然后采用1×1卷积动态融合特征图的多尺度上下文信息和边缘信息并恢复原始通道数量,得到输出特征; 步骤S3:对有标注训练集进行弱增强处理后,输入场景变化检测网络,输出对应的第一变化概率图,并计算监督损失; 步骤S4:对无标注训练集进行弱增强处理,处理后的无标注图像对复制为两份,一份输入场景变化检测网络,得到预测的第二变化概率图;另一份进行强增强操作,随后输入场景变化检测网络,得到预测的第三变化概率图; 步骤S5:利用无监督分支约束弱增强和强增强之间预测结果一致性,得到预测对齐损失; 步骤S6:利用无监督分支约束弱增强和强增强之间中层边缘特征的一致性,得到边缘特征对齐损失; 步骤S7:在网络训练过程中,通过监督损失、边缘特征对齐损失以及预测对齐损失共同优化网络参数,得到训练好的场景变化检测网络; 步骤S8:基于训练好的场景变化检测网络,进行场景变化检测。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人湖南科技大学,其通讯地址为:411100 湖南省湘潭市雨湖区石马头;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励