Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 长春大学肖治国获国家专利权

长春大学肖治国获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉长春大学申请的专利一种基于时空图卷积网络的人体姿态视频评估方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119693999B

龙图腾网通过国家知识产权局官网在2025-09-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411650835.1,技术领域涉及:G06V40/20;该发明授权一种基于时空图卷积网络的人体姿态视频评估方法是由肖治国;梁文惠;陈显庆;戴文新;张冬;李长根;王珂;申奇;周洋帆;刘钱设计研发完成,并于2024-11-19向国家知识产权局提交的专利申请。

一种基于时空图卷积网络的人体姿态视频评估方法在说明书摘要公布了:本发明涉及一种基于时空图卷积网络的人体姿态视频评估方法,属于计算机视觉技术领域,包括以下步骤:获取人体姿态点云视频,对其进行预处理,构建数据集;然后对STGCN模型进行改进,使其能够生成高准确率的人体姿态评估分数;对改进的STGCN模型进行训练并保存最终训练好的网络状态;使用训练好的生成网络进行人体姿态视频的评估。本发明能够生成高准确性的人体姿态评估分数,更加符合实际应用场景,能够对自主康复评估起到重要的指导作用。

本发明授权一种基于时空图卷积网络的人体姿态视频评估方法在权利要求书中公布了:1.一种基于时空图卷积网络的人体姿态视频评估方法,其特征是:包括以下步骤,并且以下步骤顺次进行, 步骤S1:获取人体姿态点云视频,将云视频中人体姿态识别的关键点数据进行预处理,并对云视频中受试者的关键点运动到位程度进行评分,将预处理后的关键点人体姿态数据与对应的评分值存储并构建人体姿态数据集; 步骤S2:使用改进的构建图邻接矩阵方法构建人体姿态数据集中的各个关键点之间的图结构关系并与预处理后的人体姿态数据合并形成新的数据集,新的数据集作为改进的时空图卷积网络STGCN的输入信号进行动作特征提取; 所述改进的时空图卷积网络STGCN简称为改进的STGCN模型,包括: 对时空图卷积网络STGCN的时间特征提取网络部分添加DropBlockSke层,得到优化的特征向量结果后将其放入动作评估网络部分; 对时空图卷积网络STGCN的时空特征提取网络部分添加骨架预测网络进行关键点的时间序列预测; 其中,使用改进的构建图邻接矩阵方法构建人体姿态数据集中的关节点之间的图结构关系,具体步骤如下: 步骤S2-1-1,输入人体姿态数据集,将数据集中的关键点数据映射为图结构中的节点,并对这些节点进行划分; 步骤S2-1-2,进行节点划分改进;将节点的一个邻域划分为两个子集,第一个子集为节点本身与在空间位置上比本节点更靠近整个骨架重心的邻节点集合,第二个则为更远离骨架重心的邻节点集合,以此生成两个邻接矩阵; 步骤S2-1-3,对生成的两个邻接矩阵进行度数的平方根的倒数进行归一化,其中归一化公式如下: 式中,A是图的邻接矩阵;D是图的度矩阵,其为一个对角矩阵;是度矩阵D的逆矩阵的平方根; 通过这种方式得到的归一化邻接矩阵normalizedA使得每个节点的邻接权重和为1,有助于在图卷积网络中更好地捕捉节点之间的关系,这个过程被称为对称归一化; 其中,添加DropBlockSke层,得到优化的特征向量结果的具体方法为: 在输入张量上应用一个二值掩码mask来随机丢弃某些区域的特征来帮助模型防止过拟合,DropBlockSke的公式如下: Mseed=casrrandom.utf.shapeinput_absinput_abs_norm×gamma3-1; M=matmulMseed,A3-2; mask=expand_dimsexpand_dims1-M,axis=0,axis=04; 式2中,α是一个与关键点num_point有关的常数,本发明的关键点num_point个数为25个,则本发明中的α为1.92;keep_prob表示保留节点的概率; 式3-1中,input_abs为该层的输入的特征向量,表示图中节点的特征或属性;input_abs_norm是input_abs的归一化结果,用于确保不同特征或节点之间的值在相同的范围内;gamma是一个控制稀疏性的参数,由公式2计算得到的参数类型都是float32,最终生成一个二维掩码矩阵Mseed; 式3-2中,M_seed是由公式3-1生成的稀疏掩码矩阵,matmul是矩阵乘法操作;M则表示Mseed与A矩阵乘法得到的结果,是将M_seed扩展到图结构上; 式4中,1-M表示将M中的0变为1,1变为0,生成一个掩码矩阵;expand_dimsaxis=0是在指定的维度上增加一个维度;mask则是最终生成的用于掩盖输入数据的掩码矩阵; 式5中inputs表示输入数据;sizemask表示掩码的元素总数;reduce_summask表示掩码中非零元素的总数;output为DropBlockSke层的最终输出,通过输入数据与mask相乘,以实现块丢弃; 其中,所述骨架预测网络是采用堆叠2次的LSTM构成,其中包括两个LSTM层、Dropout层和TimeDistributed层,首先,将时空图卷积网络STGCN的输出Yl作为输入,通过Reshape层,将其的形状重塑为二维形状,即-1,x.shape[2]*x.shape[3],整合时间步和关键点信息;接着,数据通过一个LSTM层,并应用Dropout层防止过拟合;然后,连接TimeDistributes层以复制时间维度上的信息,使得模型能够更好地处理序列数据;紧接着,数据再次Reshape后,进入第二个LSTM层,进一步提取时序信息;同样地,再次应用Dropout和TimeDistributed层后,数据被连接到全连接层以映射到输出空间;最终生成关键点的坐标预测;这个结构旨在处理关键点时间序列数据,学习网络中的时序信息并生成对关键点位置的预测; 步骤S3:利用人体姿态数据集对改进的STGCN模型进行训练,直至改进的STGCN模型达到低误差即高准确性的指标; 步骤S4:利用训练好的网络进行人体姿态视频的评估,并获得相应的评估分数的预测值。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人长春大学,其通讯地址为:130022 吉林省长春市卫星路6543号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。