Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 首都师范大学王艳慧获国家专利权

首都师范大学王艳慧获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉首都师范大学申请的专利一种交通场景移动目标完整轨迹的提取方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116246194B

龙图腾网通过国家知识产权局官网在2026-02-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210897728.3,技术领域涉及:G06V20/40;该发明授权一种交通场景移动目标完整轨迹的提取方法是由王艳慧;赵文吉;罗霄月设计研发完成,并于2022-07-28向国家知识产权局提交的专利申请。

一种交通场景移动目标完整轨迹的提取方法在说明书摘要公布了:本发明提供了一种交通场景移动目标完整轨迹的提取方法,包括如下步骤:接入复杂交通场景下的视频数据,对视频中移动目标进行基于目标检测的跟踪,获取目标类型Type、目标前景图像objPic、目标中心点坐标Objxcentercenter,ycentercenter、最小外接矩形以及其左上角坐标xLL,yLL和右下角坐标xRR,yRR,根据目标在视频连续帧的中心点坐标Objxcentercenter,ycentercenter依次连接构成目标轨迹。

本发明授权一种交通场景移动目标完整轨迹的提取方法在权利要求书中公布了:1.一种交通场景移动目标完整轨迹的提取方法,其特征在于:包括如下步骤: a接入复杂交通场景下的视频数据,对视频中移动目标进行基于目标检测的跟踪,获取目标类型Type、目标前景图像objPic、目标中心点坐标Objxcenter,ycenter、最小外接矩形以及其左上角坐标xL,yL和右下角坐标xR,yR,根据目标在视频连续帧的中心点坐标Objxcenter,ycenter依次连接构成目标轨迹Trai={x1,y1,x2,y2,…,xn,yn}; 基于特征点跟踪获取移动目标的多个特征角点,根据多个特征角点在连续视频帧的坐标构成移动目标N条特征点轨迹集合Traclusi={Traclus1,Traclus2,…,Traclusn};根据移动目标特征点轨迹集合Traclusi和最小外接矩形间的方位关系,即点在多边形内部的判断获取目标轨迹和特征点轨迹集合中每条轨迹的类型信息,其中目标类型包括车辆和行人两大类,其中,行人包括骑车的行人和步行的行人;设A、B、C、D、E五条特征点轨迹落入该移动目标的最小外接矩形之内,则A、B、C、D、E五条特征点轨迹均属于该移动目标,该移动目标的类型信息即为N条特征点轨迹集合Traclusi={Traclus1,Traclus2,…,Traclusn}的类型信息:行人骑车的行人和步行的行人车辆; b根据步骤a可获取目标轨迹Trai={x1,y1,x2,y2,…,xn,yn}和N条特征点轨迹集合Traclusi={Traclus1,Traclus2,…,Traclusn},在此基础上,通过特征点轨迹集合Traclusi中的每条轨迹与目标轨迹Trai间的向量积judge,获取特征点轨迹集合中的每条轨迹相对于目标轨迹Trai的位置关系,设目标轨迹Trai起始点为Trastartxstart,ystart、终止点为Traendxend,yend,特征点轨迹集合Traclusi中任意一条轨迹的中心点坐标为Traclusmidxmid,ymid,根据向量积计算公式: judge=xend-xstart×ymid-ystart-yend-ystart×xmid-xstart 计算得到N条Traclusi位于Trai左侧或者右侧的位置关系,即当judge0,Traclusi位于Trai的右侧,则可获取N条特征点轨迹集合中位于Trai右侧轨迹集合为: Traclusri={Traclusr1,Traclusr2,…,Traclusrn}; 当judge0,Traclusi位于Trai的左侧,则N条特征点轨迹集合中位于Trai左侧轨迹集合为: Traclusli={Traclusl1,Traclusl2,…,Traclusln}; 其中i为移动目标的个数,n为单个目标的轨迹个数,rn为单个目标右侧特征点轨迹集合的个数,ln为单个目标左侧特征点轨迹集合的个数; c对步骤b中左侧轨迹集合Traclusli和右侧轨迹集合Traclusri进行聚类分析,设: 左侧轨迹集合中任意一条轨迹坐标点集合为: Traclusln={xl1,yl1,xl2,yl2,…,xln,yln} 和右侧轨迹集合中任意一条轨迹坐标点集合为: Traclusln={xr1,yr1,xr2,yr2,…,xrn,yrn}; 聚类分析主要包括四个步骤,即轨迹平均向量计算、坐标旋转、水平扫描以及旋转为原坐标: 平均向量计算: 获取: 左侧轨迹集合Traclusli={Traclusl1,Traclusl2,…,Traclusln}、左侧轨迹集合向量和右侧轨迹集合Traclusri={Traclusr1,Traclusr2,…,Traclusrn}、右侧轨迹集合向量并分别对左侧轨迹集合向量和右侧轨迹集合向量求取平均向量: 分别采用公式 其中|lV|、|rV|为向量和的模,vlxn,vlyn为第n条左侧轨迹向量的坐标,vrxn,vryn为第n条右侧轨迹向量的坐标,Vlx,Vly为左侧轨迹集合向量坐标以及Vrx,Vry为左侧轨迹集合向量坐标; 轨迹坐标旋转:按照公式和计算出平均向量与x轴单位向量的夹角lθ以及平均向量与x轴单位向量的夹角rθ,将左侧轨迹集合Traclusli按照平均向量的方向旋转lθ的角度,将右侧轨迹集合Traclusri按照平均向量的方向旋转rθ的角度,得到: 左侧轨迹上任一坐标点xln,yln旋转后的X坐标cxln=xlncoslθ-ylnsinlθ 左侧轨迹上任一坐标点xln,yln旋转后的Y坐标cyln=ylncoslθ+xlnsinlθ 右侧轨迹上任一坐标点xrn,yrn旋转后的X坐标cxrn=xrncosrθ+yrnsinrθ 右侧轨迹上任一坐标点xrn,yrn旋转后的Y坐标cyrn=yrncosrθ-xrnsinrθ 对轨迹上每一个坐标点分别按照上述步骤旋转,得到左侧轨迹坐标集合为: xTraclusli={cxl1,cyl1,cxl2,cyl2,…,cxln,xyln} 得到右侧轨迹坐标集合为: xTraclusri={cxr1,cyr1,cxr2,cyr2,…,cxrn,cyrn}; 水平扫描:对旋转后的左侧轨迹坐标集合xTraclusli、右侧轨迹坐标集合xTraclusri按照平均向量方向等距扫描,求取: 扫描线与左侧轨迹n个交点的集合: lInteri={lsx1',lsy1',lsx2',lsy2',…,lsxn',lsyn'} 扫描线与右侧轨迹n个交点的集合: rInteri={rsx1',rsy1',rsx2',rsy2',…,rsxn',rsyn'}, 根据上述公式计算: 聚类后的左侧轨迹任一坐标X值: 聚类后的左侧轨迹任一坐标Y值: 聚类后的右侧轨迹任一坐标X值: 聚类后的右侧轨迹任一坐标Y值: 得到聚类分析后的左侧轨迹的坐标集合和右侧轨迹的坐标集合: 左侧轨迹的坐标集合lTrai={cxl1',cyl1',cxl2',cyl2',…,cxln',cyln'} 右侧轨迹的坐标集合rTrai={cxr1',cyr1',cxr2',cyr2',…,cxrn',cyrn'}; 并将聚类后的左侧轨迹和右侧轨迹旋转至原坐标: 旋转后的左侧轨迹任一坐标X值: 旋转后的左侧轨迹任一坐标Y值: 旋转后的右侧轨迹任一坐标X值: 旋转后的右侧轨迹任一坐标Y值: 最终得到旋转后的左侧轨迹cTraleft和右侧轨迹cTraright: 左侧轨迹cTraleft={cxl1,cyl1,cxl2,cyl2,…,cxln,cyln} 右侧轨迹cTraright={cxr1,cyr1,cxr2,cyr2,…,cxrn,cyrn}; d结合相应的高清遥感在线影像,选取视频帧图像空间下标志性的点位q{q1x1,y1,q2x2,y2,…,qnxn,yn},其中标志性点位的选取原则为,点位目标在遥感影像上明显、清晰、易读且在视频帧上有相对应的位置;其次,以高精度遥感影像地图为基础,获取地理空间下对应位置的同名点位Q{Q1X1,Y1,Q2X2,Y2,…,QnXn,Yn},解算摄像机的单应矩阵H,并根据计算得到单应矩阵的逆矩阵H-1,其中Xn,Yn表示遥感影像上任意一点的坐标,xn,yn为视频帧上与Xn,Yn相对应的坐标; e为了进一步优化左侧轨迹cTraleft和右侧轨迹cTraright得到高精度的完整轨迹,按照步骤d求取单应矩阵H和逆矩阵H-1,建立目标轨迹在地理空间和图像空间的坐标转换关系: 根据公式 求解cTraleft={cxl1,cyl1,cxl2,cyl2,…,cxln,cyln} 和cTraright={cxr1,cyr1,cxr2,cyr2,…,cxrn,cyrn}的地理坐标; 即地理左侧轨迹gTraleft={cXl1,cYl1,cXl2,cYl2,…,cXln,cYrn}和地理右侧轨迹gTraright={cXr1,cYr1,cXr2,cYr2,…,cXrn,cYrn} 以及所述步骤a中目标检测轨迹Trai={x1,y1,x2,y2,…,xn,yn}的地理坐标集合gTrai={X1,Y1,X2,Y2,…,Xn,Yn}; 并根据公式 以及 计算地理左侧轨迹gTraleft相对于地理目标轨迹gTrai的偏移距离dln,并计算以偏移距离dln为斜边和gTraleft上任一坐标点的X、Y坐标值为两个直角边的三角形夹角计算地理右侧轨迹gTraright相对于地理目标轨迹gTrai的偏移距离drn,并计算以偏移距离drn为斜边和gTraright上任一坐标点的X、Y坐标值为两个直角边的三角形夹角其中采用gTraleft的切线斜率计算公式获取,采用gTrgright的切线斜率的计算公式获取,小写的x、y标志,包括cxrn,cyrn和cxln,cyln,均为图像空间下的坐标;大写的X、Y的标志,包括cXln,cYln和cXrn,cYrn均为经过图像空间转换到地理空间下的坐标; f根据步骤e计算所得drn、dln和夹角为了获取精度更高的轨迹,需要将地理左侧轨迹gTraleft和地理右侧轨迹gTraright按照偏移距离dln和drn进行移动; 获取地理左侧轨迹gTraleft上任一坐标点cXln,cYln,计算以斜边dln、夹角为的三角形直角边Xln、Yln,即是cXln,cYln向地理目标轨迹gTrai移动的距离,其中: cXln向地理目标轨迹gTrai移动的距离Xln的计算公式为: cYln向地理目标轨迹gTrai移动的距离Yln的计算公式为: 获取地理右侧轨迹gTraright上任一坐标点cXrn,cYrn,计算以斜边drn、夹角为的三角形的直角边Xrn、Yrn,即是cXrn,cYrn向地理目标轨迹gTrai移动的距离,其中: cXrn向地理目标轨迹gTrai移动的距离Xrn的计算公式为: cYrn向地理目标轨迹gTrai移动的距离Yln的计算公式为: 依次得到地理左侧轨迹每一个点移动后的坐标值Xrn、Yrn和地理右侧轨迹每一个点移动后的坐标值Xln、Yln; 然后,获取轨迹优化后的轨迹坐标序列,即左侧轨迹优化序列 yTraleft={cXl1+Xl1,cYl1+Yl1,cXl2+Xl2,cYl2+Yl2,…,cXln+Xln,cYln+Yln} 和右侧轨迹优化序列 yTraright={cXr1-Xr1,cYr1-Yr1,cXr2-Xr2,cYr2-Yr2,…,cXrn-Xrn,cYrn-Yrn} 最后,按照步骤d计算的单应矩阵的逆矩阵H-1,然后对yTraleft和yTraright进行地理坐标至图像坐标转换得到: 转换后的左侧轨迹序列: pTraleft={pxl1,pyl1,pxl2,pyl2,…,pxln,pyln} 转换后的右侧轨迹序列: pTraright={pxr1,pyr1,pxr2,pyr2,…,pxrn,pyrn} 对pTraleft、pTraright以及Tra求取平均向量,得到三条轨迹的向量: 并根据公式 对三条轨迹的向量求取平均向量 接着按照公式计算出平均向量与x轴单位向量的夹角θ,将pTraleft、pTraright以及Trai序列按照平均向量的方向旋转θ的角度,根据公式txln=pxlncosθ-pylnsinθ和tyln=pylncosθ+pxlnsinθ得到旋转后的左侧坐标集合tTraleft={txl1,tyl1,txl2,tyl2,…,txln,tyln};根据公式txrn=pxrncosθ-pyrnsinθ和tyrn=pyrncosθ+pxrnsinθ得到旋转后的左侧坐标集合tTraright={txr1,tyr1,txr2,tyr2,…,txrn,tyrn}; 然后,对旋转后的轨迹按照平均向量方向等距扫描,求取扫描线与3条轨迹3个交点的集合Interi={sx1',sy1'0,sx2',sy2',sx3',sy3'},并根据公式: 得到聚类后的轨迹的坐标集合tTrai={tx1',ty1',tx2',ty2',…,txn',tyn'}; 最后,按照公式txn=tx'n×cosπ+θ-tyn'×sinπ+θ和tyn=ty'n×sinπ+θ+tyn'×cosπ+θ将聚类后的轨迹旋转至原坐标,得到优化后的轨迹坐标集合tTrai={tx1,ty1,tx2,ty2,…,txn,tyn}。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人首都师范大学,其通讯地址为:100000 北京市海淀区西三环北路105号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。