南京理工大学谢国森获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京理工大学申请的专利一种基于CLIP的零样本图像识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117197568B 。
龙图腾网通过国家知识产权局官网在2026-01-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311167370.X,技术领域涉及:G06V10/764;该发明授权一种基于CLIP的零样本图像识别方法是由谢国森;李浚逸;舒祥波设计研发完成,并于2023-09-12向国家知识产权局提交的专利申请。
本一种基于CLIP的零样本图像识别方法在说明书摘要公布了:本发明公开了一种基于CLIP的零样本图像识别方法,通过对由语义引导的细粒度局部视觉特征定位,并且利用双网络的特征对齐,微调属性特征提示,从而获得优异的零样本知识迁移能力,得到更精确的零样本图像分类结果。在三个经典的图像分类数据集CUB,SUN和AWA2的传统零样本基准测试上分别达到84%,89.8%和97.4%的正确率,广义零样本基准测试上分别达到75.9%,68.4%和92.6%的H值,是目前结果最好的模型。证明本方法可以通过学习已见类图像的先验知识,并且利用双网络的特征对齐,微调属性特征提示从而精确的识别未见类图像。
本发明授权一种基于CLIP的零样本图像识别方法在权利要求书中公布了:1.一种基于CLIP的零样本图像识别方法,其特征在于,包括: S1:给定数据集,将其划分为已见类和未见类; S2:利用ResNet和CLIP视觉编码器分别对图像进行特征表示,分别提取得到图像特征xres、xclip,同时利用CLIP文本编码器对类别名进行特征表示,并引入属性描述向量; S3:将ResNet局部视觉特征和CLIP局部视觉特征分别与属性描述向量进行视觉-语义交互注意力运算,得到基于属性提示注意力的特征向量,从而得到两个网络的局部类别预测向量; S4:对两个网络模型的局部类别预测向量构造跨网络对齐损失Lpal来限制跨网络特征对齐;对两个网络模型的局部类别预测向量分别采用交叉熵损失Lcl和自校准损Lcal进行监督训练; S5:将CLIP视觉全局特征与类别名特征计算余弦相似度得到全局预测,与两个网络模型的最终局部预测融合,并引入偏差向量允许一部分的已见类预测迁移到未见类,得到最终预测得分; 所述S3包括:xres对应的特征向量将最后维度视为ResNet局部视觉特征,xclip取分类头以外的其它头作为CLIP局部视觉特征,将ResNet局部视觉特征和CLIP局部视觉特征分别与属性描述向量v进行视觉-语义交互注意力运算,两支路得到的注意力矩阵分别与对应的局部视觉特征相乘得到基于属性提示注意力的特征向量;然后通过将基于属性提示注意力的特征向量和映射后的属性描述向量点乘得到属性相关向量;再将属性相关向量与类别属性概率分数以及属性注意力权重相乘得到最终类别预测分数从而得到两个网络的局部类别预测向量pi,
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京理工大学,其通讯地址为:210000 江苏省南京市玄武区孝陵卫街道孝陵卫街200号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励