重庆邮电大学张家波获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉重庆邮电大学申请的专利一种基于语义增强和多尺度特征融合的人体姿态估计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119763189B 。
龙图腾网通过国家知识产权局官网在2025-12-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411829878.6,技术领域涉及:G06V40/20;该发明授权一种基于语义增强和多尺度特征融合的人体姿态估计方法是由张家波;何阿娟;唐上松设计研发完成,并于2024-12-12向国家知识产权局提交的专利申请。
本一种基于语义增强和多尺度特征融合的人体姿态估计方法在说明书摘要公布了:本发明公开了一种基于语义增强和多尺度特征融合的人体姿态估计方法。所述方法包括以下步骤:在MobileNetV2网络的基础上构建特征金字塔,统一不同尺度特征的分辨率并拼接;将拼接之后的特征输入到基于EfficientVit的尺度感知语义模块,生成尺度感知的全局语义表示;构建深层语义注入模块,将尺度感知的全局语义与对应的特征进行融合,采用上下文指导的注意力机制选择性强化相关特征;自适应多尺度特征融合,网络能够自适应地调整感受野大小,以更好地捕捉不同尺度的人体关键点特征,同时提高深浅层特征的利用率;使用1×1卷积层构建关键点检测头得到最终的关键点热图输出。本发明的模型能更好地感知人体姿态的语义特征和多尺度视觉线索,从而显著提升模型的泛化能力。
本发明授权一种基于语义增强和多尺度特征融合的人体姿态估计方法在权利要求书中公布了:1.一种基于语义增强和多尺度特征融合的人体姿态估计方法,其特征在于,所述方法包括: 步骤1:在MobileNetV2网络的基础上构建特征金字塔,统一不同尺度特征的分辨率并拼接; 步骤2:将特征金字塔中多尺度特征拼接后的新特征输入到EfficientViT模块中,提取尺度感知语义; 步骤3:构建深层语义注入模块,将尺度感知语义与对应的特征进行融合,采用上下文引导的注意力机制缓解语义差距并选择性强化与人体姿态关键点相关的特征; 步骤4:设计自适应感受野的多尺度特征融合模块,提取和融合不同尺度特征中的有效信息; 将FPN作为基线,通过自适应多尺度特征融合AMFF模块来改进自顶向下路径中的融合模式,使得模型侧重于当前层和相邻层之间的特征调整,将AMFF完成的变换表示为F·,则AMFF可以表示如下: Pi=FCi,Ci+1,i=2,3,4 其中是AMFF的输出,Ci和Ci+1是AMFF的输入,它们分别表示第i层和第i+1层的特征图; AMFF模块包括:可选择卷积核LSK分支,跨层交互CEAM分支和分支集成; 可选择卷积核LSK分支通过一系列具有不同感受野的深度可分离卷积,生成具有丰富上下文信息的多尺度特征,并采用空间核选择机制自适应选择最相关的特征,输入特征Ci经过LSK分支这一系列变换过程,得到的输出特征记为 CEAM分支旨在寻求相邻层之间的内在联系,通过跨层注意机制可以将低层细粒度特征与顶层粗粒度特征融合,以提高特征融合效果,它可以计算为: 其中是CEAM分支的输出,sig·是sigmoid激活函数,是逐像素乘法,在第i层特征的指导下,该分支为融合提供了更有价值的上下文交互信息; LSK和CEAM的输出通过残差集成的方式与原始特征融合,实现层内和跨层的自适应特征调整,LSK和CEAM的输出以残差的方式与原始第i层特征图集成为: 其中是逐像素求和; AMFF扩展到适用于PAFPN中的自底向上路径,表示为AMFF*,AMFF*以Pi和Pi-1为输入,变换可以表示为: Li=F'Pi,Pi-1,i=3,4,5 其中是AMFF*的输出,在AMFF*中,LSK以Pi为输入,经过变换得到输出,记为CEAM的输出为: 则AMFF*的输出Li可计算为: 将AMFF扩展为AMFF*,应用于PAFPN的自底向上特征融合路径,能够有效地将高层语义信息与低层定位信息融合; 步骤5:将步骤4输出的多尺度特征进行拼接,使用1×1卷积层生成最终的关键点热图并利用无偏数据处理对热图进行修正,之后对人体关键点进行预测。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人重庆邮电大学,其通讯地址为:400065 重庆市南岸区崇文路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励