Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 积分商城 国际服务 IP管家助手 科技果 科技人才 商标交易 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中国人民大学鄂金龙获国家专利权

中国人民大学鄂金龙获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中国人民大学申请的专利一种面向云台摄像头的移动物体智能追踪方法及装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116385482B

龙图腾网通过国家知识产权局官网在2026-02-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310168870.9,技术领域涉及:G06T7/246;该发明授权一种面向云台摄像头的移动物体智能追踪方法及装置是由鄂金龙;何林;李振华;刘云浩设计研发完成,并于2023-02-27向国家知识产权局提交的专利申请。

一种面向云台摄像头的移动物体智能追踪方法及装置在说明书摘要公布了:本发明公开了一种面向云台摄像头的移动物体智能追踪方法及装置,首先通过对运动物体位置和大小特征进行相关滤波,关联连续帧中出现的相同物体,抽象出各帧中物体的两个关键点,在摄像头视域的全景空间中构建运动轨迹;其次,构建包含多层神经网络和定制化的奖惩机制的强化学习模型,根据物体运动轨迹的时空信息在线决策调整云台旋转幅度,融合追踪相同类型物体的学习经验加速模型收敛;最后,使用流水线处理旋转指令的决策生成与执行,合并或消除缓存队列中的冗余指令,同时采用帧采样方式跟踪低频移动物体,根据物体运动信息自适应调整采样间隔,以匹配云台旋转与物体移动速度。本发明实现了高效低电耗的移动物体智能追踪方法,极大地提升了监控的有效性和智能性。

本发明授权一种面向云台摄像头的移动物体智能追踪方法及装置在权利要求书中公布了:1.一种面向云台摄像头的移动物体智能追踪方法,其特征在于,所述方法包括以下步骤: 步骤1,通过对运动物体位置和大小特征进行相关滤波,关联连续帧中出现的相同物体,抽象出各帧中目标物体的两个关键点,在云台摄像头视域的全景空间中构建运动轨迹; 步骤2,根据步骤1实时获取的运动轨迹中指示的物体状态变化信息,构建包含多层神经网络和定制化的奖惩机制的强化学习模型,根据物体运动轨迹的时空信息在线决策调整云台旋转幅度,并融合步骤1的追踪相同类型物体的学习经验加速模型收敛; 步骤3,基于步骤2强化学习模型,采用流水线方式处理其输出的旋转指令的决策生成和执行,合并或消除缓存队列中的冗余指令,同时采用帧采样方式跟踪低频移动物体,根据物体运动信息自适应调整采样间隔,以匹配云台旋转与物体移动速度; 其中,所述步骤1通过运动物体检测、跨帧目标关联和运动轨迹构造三个模块来完成,具体地, 步骤1.1,运动物体检测模块中利用光流法集成到主流云台摄像头使用的检测算法中,用以解决检测的物体像素不完整影响定位准确性的问题; 步骤1.2,跨帧目标关联模块中利用相关滤波在频域中进行元素操作匹配不同帧中的目标物体,用以消除背景噪声和其他物体对追踪的干扰; 步骤1.3,运动轨迹构造模块中利用以上两个模块不断获取到的位置、大小和准确轮廓物体信息在相同空间中构建物体运动轨迹; 所述步骤2通过模型在线推断和学习经验融合两个模块来完成,具体地, 步骤2.1,模型在线推断模块中利用步骤1获取的信息,基于强化学习模型推断物体的下一个状态并相应进行适当的云台旋转,在保持追踪物体的同时最小化云台的旋转成本; 步骤2.2,学习经验融合模块将步骤1中追踪相同类型物体的学习经验融合到模型中,使模型尽快收敛做出合理推断,避免在初始追踪物体时出现冷启动问题; 所述步骤3通过旋转指令处理和视频帧采样两个模块来完成,具体地, 步骤3.1,旋转指令处理模块中采用流水线方式处理旋转指令的决策生成和执行,用以缩小机械转速和指令生成速度二者速度差异对物体追踪及时性的影响,以降低追踪失败的风险; 步骤3.2,视频帧采样模块中以动态的低频率提取样本帧进行处理,用以排除没有物体跟踪丢失风险的帧,减少生成指令来适配低速机械旋转; 其中,所述模型在线推断模块通过以下步骤完成: 步骤2.1.1,构建一个强化学习模型,其中输入端有一个包含k个单元的长短期记忆LSTM结构,用于挖掘隐藏在运动轨迹中的隐式时空特征,后面承接两个相似的神经网络,一个基于提取的特征输出旋转动作,称为Actor,另一个用于判断动作价值,称为Critic,每个神经网络包含两个全连接层和一个输出层,将LSTM单元展平的序列输入到两个神经网络的全连接层,都采用tanh激活函数来增强学习能力,Actor网络的输出层以softmax作为激活函数,生成选择每个动作的概率分布以便输出概率最大的动作,其中,强化学习模型根据当前帧的状态序列记为Sm,执行旋转动作记为am,基于迭代学习更新的控制策略为πSm,am;而Critic网络的输出层是一个线性神经元,估计从当前状态开始的预期总奖惩值,则πSm,am的对应价值记为VπSm,为了适应在线推断的要求,在模型训练中应采用邻近策略优化PPO促使模型快速收敛算法,平滑更新策略参数以尽快稳定生成合理决策; 步骤2.1.2,将步骤1.3所得的物体运动轨迹的最近k个四元组以及当前摄像头正对方向θgp,θgt作为状态输入强化学习模型,为了匹配模型接收输入的LSTM结构,帧Fm的实际输入状态序列调整为其中前四个元素是按列从最近k个四元组中提取序列并与对应时刻摄像头正对方向进行差值,表示为 步骤2.1.3,在线推断出对应的云台旋转动作am=apm,atm,其中apm和atm均从一个离散的动作空间A={ω*j}j∈[-na,na]∩Z选取,其中ω代表一个旋转角度单元,na是旋转幅度最大角度单元数,两个维度分别用nap,nat表示,需要满足ω*nau12Θuu=p,t; 步骤2.1.4,重定向摄像头并更新物体轨迹生成新状态Sm+1,并计算与动作am关联的奖惩值rm以使模型不断学习,当物体保持在摄像头的视域中,主要关注其到视域边界的距离以及移动方向,设置位置奖惩值rpm和方向奖惩值rdm都基于状态Sm+1的摄像头正对方向θgpm+1,θgtm+1和物体运动序列计算公式分别为rpm=1–2|θbpm+1|Θp–2|θbtm+1|Θt和rdm=-θcpm+1θcpΔ+θctm+1θctΔ[|θcpm+1|+|θctm+1|*|θcpΔ|+|θctΔ|],其中θcuΔ=θcum+1–θcumu=p,t;一旦物体离开摄像头的视域,云台会立即旋转到最近获得的物体质心对应的方向,以恢复对物体的追踪,对此情况需设置丢失奖惩值rlm为足够大的负值,取-10,以体现动作am的不利影响;而云台旋转的成本奖惩值设置应与幅度相关,计算公式为rcm=1–apmω*nap–atmω*nat,整体奖惩值rm应包含上述全部4个奖惩部分,通过rm=μrlm+1–μβrpm+δrdm+ηrcm计算获得,其中μ∈{0,1}表示动作am是否使物体脱离摄像头的视域,其中1为脱离的情况,而β,δ和η为设置的超参数,根据网格搜索验证最优值为1,1,2。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国人民大学,其通讯地址为:100872 北京市海淀区中关村大街59号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。