Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京邮电大学郭彩丽获国家专利权

北京邮电大学郭彩丽获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京邮电大学申请的专利一种基于大规模预训练模型的跨模态行人搜索的实现方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119399794B

龙图腾网通过国家知识产权局官网在2025-09-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411521867.1,技术领域涉及:G06V40/10;该发明授权一种基于大规模预训练模型的跨模态行人搜索的实现方法是由郭彩丽;王鑫;杨洋;王彦君设计研发完成,并于2024-10-29向国家知识产权局提交的专利申请。

一种基于大规模预训练模型的跨模态行人搜索的实现方法在说明书摘要公布了:本发明公开了一种基于大规模预训练模型的跨模态行人搜索的实现方法,涉及计算机视觉、自然语言处理和机器学习技术领域。首先对某个跨模态行人搜索数据集按比例将其中的图像划分为训练数据集和验证数据集,并将训练数据集和验证数据集中的行人图像属性分别按照自定义的句子模板进行填充,得到对应的两个文本。将训练数据集的文本数据中的属性进行随机掩码,得到掩码文本。然后基于大规模预训练模型构建跨模态行人搜索算法,将训练数据集的图像、文本和掩码文本导入跨模态行人搜索算法中,通过训练迭代生成跨模态行人搜索算法模型。最后通过测试数据集合测试训练好的跨模态行人搜索算法模型的搜索准确率。

本发明授权一种基于大规模预训练模型的跨模态行人搜索的实现方法在权利要求书中公布了:1.一种基于大规模预训练模型的跨模态行人搜索的实现方法,其特征在于,包括如下步骤: 步骤一,基于某个跨模态行人搜索数据集,按比例将其中的图像划分为训练数据集和验证数据集,并分别获取其中的行人类别和行人图像属性成对标注信息; 步骤二,将训练数据集和验证数据集中的行人图像属性分别按照自定义的句子模板进行填充,得到对应的两个文本; 以自定义的句子模板P,将行人图像属性A填充至句子模板的对应位置,将属性A转为文本T; 步骤三,将训练数据集的文本数据中的属性进行随机掩码,得到掩码文本 步骤四,基于大规模预训练模型构建跨模态行人搜索算法,将训练数据集的图像、文本和掩码文本导入跨模态行人搜索算法中,通过训练迭代生成跨模态行人搜索算法模型; 跨模态行人搜索算法模型的训练迭代过程为: 步骤401,利用大规模预训练模型提取图像的全局特征和最后的隐藏状态特征、文本的全局特征以及掩码文本最后的隐藏状态特征; 具体为: 利用大规模预训练模型的图像编码器提取图像I的最后的隐藏状态特征和全局特征 利用大规模预训练模型的文本编码器提取文本T的全局特征掩码文本最后的隐藏状态特征 步骤402,根据图像、文本和掩码文本所提取的特征计算损失函数,并基于该损失函数对模型进行训练; 所述损失函数为图像文本对匹配损失函数、文本和文本对匹配损失函数、掩码属性预测损失函数、以及图像和文本分类损失函数相加所得,公式为: 其中,图像-文本的匹配损失函数为: 文本-图像的匹配损失函数为: 文本和文本对匹配损失函数 掩码属性预测损失函数 图像和文本分类损失函数 pi,j为图像-文本的匹配概率,ε是使分母保持数值稳定的小数,qi,j表示图像文本对真实的匹配概率,pj,i表示文本-图像的匹配概率;表示文本和文本对之间匹配的概率,文本和文本对之间真实属性匹配概率;|Υ|表示词表的大小,yi表示真实的词表分布,M表示被掩码的属性单词的集合;yi为真实的标签,为图像类别概率,为文本类别概率; 步骤403,通过包含文本的验证数据集合对训练后的跨模态行人搜索算法模型的结果进行准确率判定,判断模型是否存在性能增益,如果不存在,则模型训练结束,保存对应的模型文件;否则,返回步骤三,重新进行随机掩码; 步骤五,依次逐条读取测试数据集合,加载训练好的跨模态行人搜索算法模型文件,进行搜索准确率的测试,得到搜索准确率的结果。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京邮电大学,其通讯地址为:100876 北京市海淀区西土城路10号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。