陕西师范大学马苗获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉陕西师范大学申请的专利基于多实例学习的弱监督特定动作定位方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117037038B 。
龙图腾网通过国家知识产权局官网在2025-12-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311035649.2,技术领域涉及:G06V20/40;该发明授权基于多实例学习的弱监督特定动作定位方法是由马苗;李雨桐;任杰;武杰;裴炤;郭敏设计研发完成,并于2023-08-16向国家知识产权局提交的专利申请。
本基于多实例学习的弱监督特定动作定位方法在说明书摘要公布了:一种基于多实例学习的弱监督特定动作定位方法,包括:提取视频空间特征和光流运动特征;构建时序动作定位网络;训练时序动作定位网络;利用时序动作定位网络定位测试视频中的特定动作;本发明通过特征自注意增强的方式扩大潜在动作区域的得分,并在动作定位部分采用特征分离学习方式最大限度地分离动作和背景视频特征表示,得到特征自注意增强与分离的弱监督时序动作定位网络。与现有技术相比,具有注释成本低、定位结果准确等优点,可满足现实生活中安防监控和体育运动等视频中特定动作定位需求。
本发明授权基于多实例学习的弱监督特定动作定位方法在权利要求书中公布了:1.一种基于多实例学习的弱监督特定动作定位方法,其特征在于,包括以下步骤: 步骤1.提取视频空间特征和光流运动特征 步骤1.1提取视频空间特征 将输入的每一个视频抽取为图像帧序列,用滑动窗口的方式将图像帧序列划分为N个不重叠的图像片段,N为正整数,采样T个片段构成采样视频序列,T<N,将采样视频序列输入到膨胀三维卷积网络中提取视频空间特征; 步骤1.2提取光流运动特征 将输入的每一个视频抽取为光流帧序列,用滑动窗口的方式将光流帧序列划分为N个不重叠的光流片段,采样T个片段构成光流采样视频序列,将光流采样视频序列输入到膨胀三维卷积网络中提取光流运动特征; 步骤2.构建时序动作定位网络 在Pytorch框架下,构建多实例学习机制的基于特征自注意增强与分离的时序动作定位网络,所述时序动作定位网络由特征融合模块1、特征增强模块2和分类器3依次串联组成,特征融合模块1由RGB特征引导融合分支1-1、FLOW特征引导融合分支1-2、主融合分支1-3组成,RGB特征引导融合分支1-1与FLOW特征引导融合分支1-2的输出与主融合分支1-3的输入相连,主融合分支1-3的输出与特征增强模块2输入相连,特征增强模块2的输出与分类器3的输入相连; 步骤3.训练时序动作定位网络 步骤3.1.初始化网络 用Xavier方法初始化时序动作定位网络参数; 步骤3.2.设置时序动作定位网络的超级参数 从国际公开的基准数据集THUMOS14中取一定数量的视频按照1:1划分为训练集和测试集,将训练集和测试集的视频帧尺寸大小统一调整为224×224;在训练过程中,数据批量设置为10,学习率设置为0.00005,权重衰减率设置为0.001,最大迭代次数设置为5000,对THUMOS14数据集采样最大序列长度设置为500; 步骤3.3.训练时序动作定位网络 将步骤1提取的视频空间特征和光流运动特征同时输入到时序动作定位网络进行特征处理及特征分离建模,先进行前向传播并计算联合损失函数L,后使用自适应矩估计法降低损失值来进行反向传播,前向传播和反向传播反复循环进行,并更新时序动作定位网络的权重和偏置,直至联合损失函数L收敛,训练结束,得到训练好的时序动作定位网络; 所述时序动作定位网络进行特征处理的方法为:RGB特征引导融合分支1-1将输入的视频空间特征和光流运动特征修正后得到特征和空间特征注意权重Wr,同时,FLOW特征引导融合分支1-2将输入的视频空间特征和光流运动特征修正后得到特征和运动特征注意权重Wf,特征和特征输入到主融合分支1-3获得融合特征和融合特征注意权重为Watt,通过特征增强模块对融合特征进行增强得到增强特征增强特征经过分类器分类获得时间类激活序列S,融合特征注意权重Watt与时间类激活序列S元素级相乘抑制后得到时间类激活序列S*; 所述联合损失函数L为: L=Lmt+Lmg+Lsp+Lmul+0.5Lnm+0.8Lge+λ1Lsl 式中,Lmt为基于前k个增强特征的多实例损失函数,Lmg为基于背景抑制的多实例损失函数,Lsp为特征激活序列与被抑制特征激活序列间损失约束函数,Lmul为模态注意权重间约束损失函数,Lnm为稀疏化的特征注意权重损失函数,Lge为基于背景类别引导的特征注意权重损失函数,Lsl为特征分离损失函数,λ1为参数,λ1∈{0.00005,0.0001,0.0005}; 步骤4.利用时序动作定位网络定位测试视频中的特定动作 步骤4.1.将测试集视频输入到训练好的时序动作定位网络进行测试; 步骤4.2.对测试视频的视频级分类预测分数设定阈值θ,选取视频级分类预测分数≥阈值θ的视频类别; 步骤4.3.在被选择的视频类别上,删除融合特征注意权重Watt≤阈值β的视频背景片段,选择剩余片段的一维连接组件,获取与视频类别无关的候选动作提案,所述候选动作提案表示为ts表示开始时间,te表示结束时间,c表示动作类别,表示动作类别c的置信度分数,使用内-外-对比函数对候选动作提案与时间类激活序列S*进行运算得到σ,最终选取σ值最高的候选动作提案为特定动作提案。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人陕西师范大学,其通讯地址为:710062 陕西省西安市长安南路199号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励