万达信息股份有限公司申成日获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉万达信息股份有限公司申请的专利一种隐私场景下的护理行为识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116110122B 。
龙图腾网通过国家知识产权局官网在2025-12-12发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211631018.2,技术领域涉及:G06V40/20;该发明授权一种隐私场景下的护理行为识别方法是由申成日;刘鸣;王瑜;侯畅畅;张植桓;张敬谊;丁偕;胡万龙设计研发完成,并于2022-12-19向国家知识产权局提交的专利申请。
本一种隐私场景下的护理行为识别方法在说明书摘要公布了:本发明公开了一种隐私场景下的护理行为识别方法,本发明在深度图像基础上,提取护理行为中护理人及被护理人的行动特征,以此构建时序和空间范围内的轨迹特征矩阵,利用机器学习相关算法对其进行分析,以此实现隐私场景下的多人参与的护理行为识别和分类。本发明提出的护理行为识别方法不依赖传统图像的特征,不易受到环境和光线变化影响,且方法仅依赖深度图像序列,区别于传统摄像头的音视频采集,可有效保护被识别者的隐私;本发明综合分析了深度图像中多人的身份、行为和图像特征,给出了在参与者行为联合分析基础上的护理行为识别模式,有效弥补传统模型无法识别特别场景下的联合行为的缺陷。
本发明授权一种隐私场景下的护理行为识别方法在权利要求书中公布了:1.一种隐私场景下的护理行为识别方法,其特征在于,包括下述步骤: 步骤1:对输入的原始深度图像序列x1,x2,…,xN进行处理,提取所有参与者的人体检测框B1,B2,…,BN以及人体ROI区域M1,M2,…,MN,其中,BN为第N帧原始深度图像中多个人体的检测框结果,MN为第N帧原始深度图像中多个人体的ROI区域分割结果 步骤2:分析原始深度图像序列中多人人体检测框B1,B2,…,BN,追踪不同人体的行动轨迹,获取所有参与者的多人人体追踪信息序列BT1,BT2,…,BTN,其中,BTN为第N帧中多个人体的追踪信息,记做BTN=[tn1,tn2,…tnk],tnk为当前帧人体检测框中顺序第k个人体的追踪编号,BTN的定义如下式1所示: BTN=ftfbvBN,…BN-i,fgvVGN,…VGN-i,fmvVMN,…VMN-i1 式1中,i为当前帧与上文关联帧数,fbv为人体检测交并比计算函数,fgv为图形学像素特征变化计算函数,fmv为动量关联方向计算函数,ftfbv,fgv,fmv为人体追踪编号计算函数,VGN为利用图形学特征分析算法fgBN计算得到的图形学特征向量,VMN为利用机器学习算法fmBN,PSN计算得到的人体检测框运动特征向量VMN,PS1,PS2,…,PSN为与人体检测框B1,B2,…,BN对应区域的像素序列; 步骤3:结合追踪结果,分析不同人体的关键点特征,构建所有参与者的人体关键点坐标,具体包括以下步骤: 步骤3-1:结合人体追踪信息序列BT1,BT2,…,BTN,以及图像序列中多人人体ROI区域M1,M2,…,MN,利用深度学习算法fkBTN,MN计算每帧二维深度图像上的不同参与者的人体关键点坐标集合KCN,得到二维人体关键点坐标集合序列KC1,KC2,…,KCN,其中,人体关键点坐标集合KCN表示为下式2: 式2中,k代表当前帧多人人体检测框中的人员数量,代表利用深度学习算法计算所得的当前帧第k个人体的第q个关键点在图像上的x、y坐标集,记做 步骤3-2:结合人体ROI区域M1,M2,…,MN以及二维人体关键点坐标集合序列KC1,KC2,…,KCN,利用空间坐标转换算法fzMN,KCN计算人体各关键点在空间中的三维坐标集合KC′N,得到关键点三维坐标集合序列KC′1,KC′2,…KC′N,其中,三维坐标集合KC′N表示为下式3: 式3中,k代表当前帧多人人体检测框中的人员数量,代表利用空间坐标转换算法计算所得的当前帧第k个人体的第q个关键点在三维空间坐标系中的x、y、z坐标集,其中,x、y代表当前像素在图像上的二维坐标,z代表当前像素灰度值,记做 步骤4:结合关键点坐标,分析图像关联帧之间人体位移变化,计算所有参与者的运动活力特征,具体包括以下步骤: 步骤4-1:结合深度图像中单位像素在三维空间对应的体素信息vix,y,z以及关键点三维坐标集合序列KC′1,KC′2,…KC′N,计算每帧人体关键点实际坐标集合KCR1,KCR2,…,KCRN; 步骤4-2:计算每帧中各肢体区域的所有关键点平均实际坐标集合KCA1,KCA2,…,KCAN; 步骤4-3:在平均实际坐标集合KCA1,KCA2,…,KCAN基础上,利用人体活力值算法fhvKCAN,…,KCAN-j计算多人运动活力特征HVN,得到运动活力特征序列HV1,HV2,…,HVN,其中,fhvKCAN,…,KCAN-j计算公式如下式4所示: 式4中,p为当前帧与上文关联帧数,j为当前帧与上文关联最大帧数,g为当前肢体区域编号,b为肢体区域最大编号,d为两帧之间肢体平均坐标的实际距离计算函数,wg为各肢体区域活力值权重算子,为具体肢体区域的实际坐标; 步骤5:结合多人人体检测框B1,B2,…,BN、多人人体追踪信息序列BT1,BT2,…,BTN以及多人运动活力特征序列HV1,HV2,…,HVN,构建并定义护理场景中各个参与角色的活力特征及相关阈值,随后构建人体身份识别算法fidBN,BTN,HVN,计算每帧中多个人体的身份向量IDN,得到多人人体身份信息向量序列ID1,ID2,…,IDN; 步骤6:使用深度学习算法构建参与者行为识别算法模型fpbKCN,KC′N,KCAN,对模型进行训练后,提取需预测图像序列的人体区域图形学特征向量序列VG1,VG2,…,VGN、人体各关键点在空间中的关键点三维坐标集合序列KC′1,KC′2,…KC′N、人体各肢体区域的所有关键点根据深度值转换后的平均实际坐标集合KCA1,KCA2,…,KCAN,利用参与者行为识别算法模型fpbVGN,KC′N,KCAN对图像序列进行预测,取最终分类结果之前的算法推导中间过程HARN作为参与者行为特征,得到参与者行为特征分析结果序列HAR1,HAR2,…,HARN; 步骤7:使用深度学习算法构建护理行为识别算法模型fnursingbehaviorBTN,HVN,IDN,HARN,提取需预测图像序列的上下文多人人体追踪信息序列BT1,BT2,…,BTN、多人运动活力特征序列HV1,HV2,…,HVN、多人人体身份信息向量序列ID1,ID2,…,IDN、参与者行为特征分析结果序列HAR1,HAR2,…,HARN,利用护理行为识别算法模型fnursingbehaviorBTN,HVN,IDN,HARN对图像序列进行预测,计算每帧中护理行为识别结果NBARN,得到护理行为识别结果序列NBAR1,NBAR2,…,NBARN;再使用深度学习算法构建护理行为序列后处理算法ffinalNBAR1,NBAR2,…,NBARN,对护理行为识别结果序列NBAR1,NBAR2,…,NBARN按照时间窗口进行进一步分析,聚合护理行为识别结果,将单窗口内预测概率最高的k个护理行为类型作为该窗口的有效护理行为,得到图像序列中按照概率预测最高的Topk个护理理行为预测结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人万达信息股份有限公司,其通讯地址为:200233 上海市徐汇区桂平路481号20号楼5层;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励