南京邮电大学颜俊获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京邮电大学申请的专利基于yolov3和卷积神经网络的多目标定位方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115170662B 。
龙图腾网通过国家知识产权局官网在2025-09-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210786206.6,技术领域涉及:G06T7/73;该发明授权基于yolov3和卷积神经网络的多目标定位方法是由颜俊;钱琛;曹艳华设计研发完成,并于2022-07-04向国家知识产权局提交的专利申请。
本基于yolov3和卷积神经网络的多目标定位方法在说明书摘要公布了:本发明提供了一种基于yolov3和卷积神经网络的多目标定位方法,包括离线训练阶段和在线定位阶段,离线训练阶段划分子区域,获取训练数据;利用yolov3网络训练rgb色彩图建立目标检测模型;根据目标检测结果对深度图像进行分割和图像融合,得到训练数据指纹;最后利用卷积神经网络得到位置估计模型;在线定位阶段,利用目标检测模型进行图像融合得到在线数据指纹;确定每个目标的位置估计模型,得到目标位置。本发明通过yolov3网络和卷积神经网络经离线训练阶段建立位置估计模型,并对深度图像进行切割和融合,提取训练定位指纹,经在线阶段利用在线定位指纹和位置估计模型,完成多目标定位,解决了现有目标定位方法预测灵活性不足、准确性不够的问题。
本发明授权基于yolov3和卷积神经网络的多目标定位方法在权利要求书中公布了:1.一种基于yolov3和卷积神经网络的多目标定位方法,包含离线训练阶段和在线定位阶段两个阶段,其特征在于: 离线训练阶段包括: 步骤1:将定位区间分成若干个子区间,利用相机获取每个子区间的训练数据,训练数据包括点云信息、rgb色彩图和深度图像; 步骤2:采用yolov3网络对rgb色彩图进行多目标检测识别离线训练,得到训练结果,并建立多目标检测模型; 步骤3:根据多目标检测模型输出的目标识别结果,对深度图像进行切割和融合,提取每个目标的训练定位指纹; 步骤4:将步骤3得到的每个目标的训练定位指纹和对应的位置信息,送入卷积神经网络进行离线回归训练,得到每个子区间的位置估计模型; 在线定位阶段包括: 步骤5:利用相机采集在线数据,在线数据包括点云信息、rgb色彩图和深度图像; 步骤6:将步骤5得到的rgb色彩图送入步骤2的多目标检测模型,输出目标检测结果,完成目标识别; 步骤7:利用步骤6得到的目标检测结果,对步骤5所得的深度图像进行分割和融合,得到每个目标的在线定位指纹; 步骤8:利用步骤5所得的每个目标的点云信息,确定每个目标适用的步骤4的所述位置估计模型,结合步骤7所述在线定位指纹,完成多目标定位; 步骤3具体包括: 步骤31:根据步骤2的多目标检测模型的对每个目标的box信息的输出,得到每个目标在训练数据的rgb色彩图中的位置信息; 步骤32:根据目标在rgb色彩图中的位置,对每个目标识别结果找到目标对应于步骤1深度图像中的位置,并将像素设为1,深度图像的其他位置像素设置为0,完成对深度图像的分割,得到分隔深度图; 步骤33:将基于目标分割的分隔深度图与步骤1中得到的原始深度图像对应位置的像素值进行相加,进行像素级融合,在原始深度图像中融入目标位置特征,形成每个目标的训练定位指纹。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京邮电大学,其通讯地址为:210023 江苏省南京市鼓楼区新模范马路66号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。