北京航空航天大学刘庆杰获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京航空航天大学申请的专利一种基于位置分布的大规模场景目标感知方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115661620B 。
龙图腾网通过国家知识产权局官网在2026-01-06发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211118645.6,技术领域涉及:G06V20/00;该发明授权一种基于位置分布的大规模场景目标感知方法是由刘庆杰;刘晨光;高广帅;王蕴红设计研发完成,并于2022-09-14向国家知识产权局提交的专利申请。
本一种基于位置分布的大规模场景目标感知方法在说明书摘要公布了:一种基于位置分布的大规模场景目标感知方法,包括步骤:将给定的大规模场景输入到主干网络中进行特征提取;将经过主干网络中进行特征提取后的场景数据输入至多重卷积层进行处理;基于多重卷积层进行处理后的数据,计算输出预测的定位图,目标偏移和目标边界框的宽和高;基于定位图,设置局部放缩模块LSM自适应的搜索定位图图像中的聚集区域,并对其进行适量的放缩以适合检测器的容量;修改原始数据的一部分损失函数,使得能够更容易的进行训练,该方法可以实现对密集小目标的检测,并且能够缓解目标分布不均匀的问题。
本发明授权一种基于位置分布的大规模场景目标感知方法在权利要求书中公布了:1.一种基于位置分布的大规模场景目标感知方法,其特征在于,包括依次进行的如下步骤: 1将给定的大规模场景输入到主干网络中进行特征提取,其中主干网络为高分辨率特征金字塔网络HRFPN; 2将经过主干网络中进行特征提取后的场景数据输入至多重卷积层进行处理,其中每层卷积层后面都接一个线性修正单元ReLu激活层; 3基于多重卷积层进行处理后的数据,计算输出预测的定位图,目标偏移和目标边界框的宽和高;其中,通过计算定位图中的局部最大值得到目标中心点的位置坐标,通过目标中心点的位置坐标得到目标边界框的宽和高; 4基于定位图,设置局部放缩模块LSM自适应的搜索定位图图像中的聚集区域,并对其进行适量的放缩以适合检测器的容量; 5修改原始数据的一部分损失函数,使得能够更容易的进行训练; 所述步骤3中计算输出预测的定位图具体为: 假定S表示所有目标中心点的集合,x,y表示欧氏距离变换图上的横纵坐标,x',y'表示集合S中的目标中心点坐标,然后将欧式距离变换图表述为: 采用两种距离变换图,反距离变换图FIDTM和高斯加权距离变换图GDTM进行处理,具体表示如下: GD=e-γDx,y 其中α、β和γ都是超参数,按照经验设定为0.02、0.75和0.02;C是一个避免分母为0的常数,设为C=1; 两种距离变换图的方式都采用高分辨率特征金字塔网络HRFPN作为主干网络,然后增加一个卷积层和两个反卷积层作为定位回归; 所述步骤4中具体为: 4.1给定预测得到的距离变换图,通过局部最大值检测的方法得到预测的定位图; 4.2将预测的定位图平均分为16×10的网格,统计每个网格中目标的数量,然后根据数量从大到小进行排序; 4.3选择出数量最多的前15个网格,并通过八联通区域算法获得较大的候选区域,即选择出图像中聚集区域; 所述步骤4.3还包括:先对连通区域进行放大适当的尺度,使得裁剪区域能够覆盖完整的目标,滤除掉小于某个阈值的裁剪块;将裁剪区域放大到适合网络的尺寸,余下的部分则用零进行填充; 所述步骤5具体为: 原始的损失函数包含三部分:中心点的预测损失Lk、中心点的偏移损失Loff和尺寸回归损失Lsize,即最终的损失为三个损失的组合: Ldet=Lk+λsizeLsize+λoffLoff 其中Lk采用高斯加权的焦点损失Focalloss,Loff采用L1损失,目标的尺寸回归损失Lsize采用L1损失,λsize和λoff为控制参数,分别设为0.1和1; 采用修改的GIoU损失M-IoU对尺寸回归损失Lsize作出修改; 基于高斯Wasserstein距离的回归损失对原始的损失函数做出修改。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京航空航天大学,其通讯地址为:100191 北京市海淀区学院路37号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励