南京理工大学李旻先获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京理工大学申请的专利一种面向智能驾驶场景的图像文本特征融合域适应目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119810600B 。
龙图腾网通过国家知识产权局官网在2026-02-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411674292.7,技术领域涉及:G06V10/80;该发明授权一种面向智能驾驶场景的图像文本特征融合域适应目标检测方法是由李旻先;翁悦诚设计研发完成,并于2024-11-21向国家知识产权局提交的专利申请。
本一种面向智能驾驶场景的图像文本特征融合域适应目标检测方法在说明书摘要公布了:本发明公开了一种面向智能驾驶场景的图像文本特征融合域适应目标检测方法,该方法设计了一种可以学习域无关特征的深度神经网络,其中包含用于使得特征具备域无关性的图像文本特征融合模块和用于将目标域的特征风格转化为源域的特征风格的特征级风格迁移模块;该方法首先预训练模型,设计文本提示短语并提取语义特征,然后利用添加了图像文本特征融合模块的教师模型生成伪标签,再训练额外添加了特征级风格迁移模块的学生模型,最后通过指数移动平均的方法更新教师模型作为最终结果。本发明提出的方法能够有效提升自动驾驶目标检测模型在目标域数据上的适应能力,同时显著降低数据集的标注成本。
本发明授权一种面向智能驾驶场景的图像文本特征融合域适应目标检测方法在权利要求书中公布了:1.一种面向智能驾驶场景的图像文本特征融合域适应目标检测方法,其特征在于,包括如下步骤: 步骤1:将在带标注的源域数据集上完成预训练的模型复制成完全相同的两份,一份作为教师模型,另一份作为学生模型; 步骤2:根据需要检测的感兴趣目标和数据集的内容设计文本提示短语,并用文本编码器提取其语义特征; 步骤3:在步骤1中获得的教师模型和学生模型中,在骨干网络的浅层添加图像文本特征融合模块,并在学生模型的骨干网络的深层再添加特征级风格迁移模块和域鉴别器;具体为: 步骤3‑1:在教师模型和学生模型的骨干网络的浅层添加图像文本特征融合模块,从而使得特征具备域无关性,图像文本特征融合的公式为: 上述公式中的ψs和ψt分别表示融合后的源域和目标域特征,xs和xt分别表示源域和目标域的图像数据样本,t为文本提示短语,Wq、Wk和Wv为投影矩阵,为图像特征提取器,为文本编码器,dk为模块中图像特征和文本语义特征的统一维度; 步骤3‑2:在学生模型的骨干网络的深层添加特征级风格迁移模块,从而将目标域的特征风格转化为源域的特征风格,并使用域鉴别器进行对抗性学习来促进骨干网络学习到域无关的特征,特征级风格迁移的公式为: 上述公式中,f·为学生模型的骨干网络的浅层部分,用于提取图像的浅层特征,μ·和σ·分别为特征的通道均值和标准差,在每个特征的每个通道的空间维度上独立计算,具体表示为μnc·和σnc·,计算公式为: 上述公式中的x表示图像特征,x∈RN×C×H×W,N为当前批次的特征数量,C为特征通道数,H为特征高度,W为特征宽度,xnchw为图像特征中具体的某一位置上的值,ε为一个很小的数,用于避免除以零的情况; 步骤4:将步骤2中获得的文本语义特征和经过简单增强的目标域数据输入教师模型,得到的检测结果作为目标域数据的伪标签; 步骤5:将步骤2中获得的文本语义特征和经过复杂增强的源域和目标域数据输入学生模型,在源域真实标注和步骤4中获得的目标域伪标签的监督下进行模型训练; 步骤6:在学生模型完成一轮次的训练后,基于学生模型的参数,使用指数移动平均的方法更新教师模型的参数; 步骤7:重复上述步骤3‑6直至最大训练轮次,最终获得的教师模型作为结果模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京理工大学,其通讯地址为:210094 江苏省南京市孝陵卫200号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励