华南理工大学毛爱华获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华南理工大学申请的专利一种基于身体部位分组的对称语义图卷积姿态估计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115546888B 。
龙图腾网通过国家知识产权局官网在2025-07-15发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211084071.5,技术领域涉及:G06V40/20;该发明授权一种基于身体部位分组的对称语义图卷积姿态估计方法是由毛爱华;张翘楚;王梓旭设计研发完成,并于2022-09-06向国家知识产权局提交的专利申请。
本一种基于身体部位分组的对称语义图卷积姿态估计方法在说明书摘要公布了:本发明公开了一种基于身体部位分组的对称语义图卷积姿态估计方法,包括如下步骤:S1、输入二维人体关节点及其连接关系,构建关节点图结构的对称语义图卷积层和非局部层;S2、根据身体躯干,进行身体部位分组,分别得到各躯干的局部及非局部特征和全身的局部及非局部特征,并对得到的特征进行融合计算;S3、基于对称语义图卷积层、非局部层和身体部位分组,构建身体部位分组的对称语义图卷积姿态估计网络模型;S4、使用Human3.6M数据集对所述对称语义图卷积姿态估计网络模型进行训练,将待估计的二维人体关节点输入经过训练的对称语义图卷积姿态估计网络模型,输出估计的三维人体关节点。本发明可应用于电影动画、虚拟现实、运动动作分析等领域,且方法效果更优,泛化能力提升。
本发明授权一种基于身体部位分组的对称语义图卷积姿态估计方法在权利要求书中公布了:1.一种基于身体部位分组的对称语义图卷积姿态估计方法,其特征在于,所述对称语义图卷积姿态估计方法包括如下步骤: S1、输入电影动画、虚拟现实或运动动作中二维人体关节点及其连接关系,构建关节点图结构的对称语义图卷积层和非局部层; S2、根据身体躯干,进行身体部位分组,分别得到各躯干的局部及非局部特征和全身的局部及非局部特征,并对得到的特征进行融合计算;所述步骤S2中,把人体关节点分解成左肢组、右肢组、全身组,各组通过独立子网络增强局部关系,然后采用晚融合的特征融合方式,先学习每个组中的特征,然后对每个组中的特征进行融合,特征融合定义为: ffuse=Concatfleft,fright,fall5 其中,Concat,,表示将特征进行连接操作,fleft为左肢组的特征,fright为右肢组的特征,fall为全身组的特征,ffuse为融合后得到的特征; S3、基于对称语义图卷积层、非局部层和身体部位分组,构建身体部位分组的对称语义图卷积姿态估计网络模型;所述步骤S3中,基于对称语义图卷积层和非局部层构建多个对称语义图卷积模块,所有对称语义图卷积模块具有相同的结构,每一个对称语义图卷积模块由两个对称语义图卷积层和一个非局部层依次顺序连接组成; 在对称语义图卷积网络中,先使用一个对称语义图卷积层和使用一个非局部层,将输入映射到潜在空间;然后通过四个依次顺序连接的对称语义图卷积模块,得到编码的特征,对称语义图卷积网络中所有对称语义图卷积层之后都进行批标准化和ReLU非线性激活; 所述身体部位分组的对称语义图卷积姿态估计网络模型包括第一分支、第二分支、第三分支,其中,第一分支、第二分支、第三分支均使用对称语义图卷积网络进行特征提取:左肢组输入第一分支,通过对称语义图卷积网络,提取左肢的特征fleft;右肢组输入第二分支,通过对称语义图卷积网络,提取右肢的特征fright;全身组输入第三分支,通过对称语义图卷积网络,提取全身的特征fall;根据公式5计算得到融合的特征ffuse,然后使用一个对称语义图卷积层,将编码的特征投影到输出空间; S4、使用Human3.6M数据集对所述对称语义图卷积姿态估计网络模型进行训练,将待估计的二维人体关节点输入经过训练的对称语义图卷积姿态估计网络模型,输出估计的三维人体关节点。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华南理工大学,其通讯地址为:510640 广东省广州市天河区五山路381号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。