Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 西安电子科技大学刘刚获国家专利权

西安电子科技大学刘刚获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉西安电子科技大学申请的专利密集场景下的多人姿态检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116682178B

龙图腾网通过国家知识产权局官网在2025-07-29发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310649852.2,技术领域涉及:G06V40/20;该发明授权密集场景下的多人姿态检测方法是由刘刚;党敏;李浩;徐启杰;相若彤;张子怡设计研发完成,并于2023-06-02向国家知识产权局提交的专利申请。

密集场景下的多人姿态检测方法在说明书摘要公布了:本发明提出了一种密集场景下的多人姿态检测方法,主要解决现有技术检测鲁棒性差和分类精度低的问题,其实现方案为:取公开的密集场景下多人姿态的图像集,将其分为训练集和测试集;构建包括浅CNN模块和特征融合模块的定位分类任务并行分支网络;定义定位分类任务并行分支网络中的目标数量损失函数、动态难度权重函数和动态类别权重函数;对定位分类任务并行分支网络进行训练;将测试集输入到训练好的定位分类任务并行分支网络中得到多人姿态检测结果。本发明避免了目标检测中定位任务对分类任务的约束,缓解了前景背景类不平衡和前景类别不平衡问题,提升了目标检测的鲁棒性和分类精度,可用于密集场景下目标识别。

本发明授权密集场景下的多人姿态检测方法在权利要求书中公布了:1.一种密集场景下的多人姿态检测方法,其特征在于,包括如下步骤: 1选取公开的密集场景下多人姿态的图像集,将其按8:1:1的比例分为训练集、验证集和测试集; 2构建定位分类任务并行分支网络: 2a构建与现有目标检测网络YOLOv5主干网络相同的共用主干网络; 2b构建两个由两个传统卷积层、两个扩张卷积层和一个传统卷积层依次级联的浅CNN模块; 2c构建两个由反卷积层和上采样层组成的特征融合模块,分别为第一特征融合模块和第二特征模块,用于进一步提取两个浅CNN模块和共用主干网络的特征,得到提取特征后的浅CNN模块N层特征图和共用主干网络N层特征图,N≥3; 2d将提取特征后的两个浅CNN模块N层特征图分别与共用主干网络N层特征图进行逐层匹配,并对每层逐元素进行相乘得到定位和分类的N层特征图; 2e在现有的任务特征网络上新增一个与其结构相同的任务特征网络,以构成并行的定位分支和分类分支,并将定位和分类的N层特征图分别输入到对应分支中生成定位特征金字塔和分类特征金字塔; 2f构建与现有目标检测网络YOLOv5定位任务头和分类任务头相同的定位任务头和分类任务头; 2g将共用主干网络、2b中一个浅CNN模块、第一特征融合模块、定位分支、定位任务头依次级联,将共用主干网络、2b中另一个浅CNN模块、第二特征融合模块、分类分支、分类任务头依次级联,构成定位分类任务并行分支网络; 3定义定位分类任务并行分支网络中需要用到的函数: 3a定义目标数量损失函数Lnum为: Lnum=LMSEnp,n′p, 其中np为第p张图像中预测目标数,n′p为第p张图像中真实目标数,LMSEnp,n′p表示计算np和n′p两者之间的均方误差; 3b定义动态类别权重函数ωi和动态难度权重函数dp为: 其中,ci表示第p张图像中第i类的预测数量; 表示t张图像的平均目标预测数量; 4根据选择的公开图像集设定相应的训练代数,将训练集中的图像输入定位分类任务并行分支网络对其进行训练: 4a使用2c中的共用主干网络N层特征图对目标数量进行回归预测,得到预测目标数np,再根据训练集中已有的真实目标数n′p和3a中定义的函数计算目标数量损失值Lnum; 4b将2e中得到的定位特征金字塔和分类特征金字塔分别输入到2f中构建的定位任务头和分类任务头中进行目标定位和分类,得到定位和分类的预测结果,并根据4b中定义的函数计算每张图像的动态难度权重dp和动态类别权重ωi,以优化任务特征网络中的特征学习; 4c由现有回归损失函数和分类损失函数分别计算回归损失值Lreg和分类损失值Lcls,根据Lcls、Lreg、目标数量损失值Lnum和现有总损失计算函数,计算得到总损失值L,通过反向传播逐代更新定位分类任务并行分支网络中的权值直到达到设定的训练代数,得到初步训练好的定位分类任务并行分支网络; 4d将图像集中的验证集输入初步训练好的定位分类任务并行分支网络中,调整其与现有目标检测网络定义相同的超参数后,并再次进行训练, 4e重复4d直到使其达到最佳检测效果,得到最终训练好的定位分类任务并行分支网络; 5将测试集输入到最终训练好的定位分类任务并行分支网络中,得到在该数据集上的检测结果。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西安电子科技大学,其通讯地址为:710071 陕西省西安市雁塔区太白南路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。