Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 同济大学田炜获国家专利权

同济大学田炜获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉同济大学申请的专利一种基于密集关联的单目3D车辆检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114119749B

龙图腾网通过国家知识产权局官网在2025-07-01发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111405543.8,技术领域涉及:G06T7/73;该发明授权一种基于密集关联的单目3D车辆检测方法是由田炜;陈涵晟;黄禹尧;邓振文;谭大艺;韩帅设计研发完成,并于2021-11-24向国家知识产权局提交的专利申请。

一种基于密集关联的单目3D车辆检测方法在说明书摘要公布了:本发明提供一种基于密集关联的单目3D车辆检测方法,包括以下步骤:通过车载相机采集单张的前视图像;计算前视图像中的各像素点在相机坐标系下的2D坐标;映射并计算前视图像中的各像素点在目标局部坐标系下的3D坐标;通过自下而上的实例分割方法划分前视图像中的各目标车辆在前视图像上所占的2D空间区域,并根据2D空间区域选取各目标车辆的像素点及其对应的2D坐标和3D坐标,并构建密集2D‑3D关联;由密集2D‑3D关联构建PnP问题并求解,获取目标车辆的位置和角度;由网络分支预测车辆的长、宽、高尺寸,并结合获取的目标车辆的位置和角度,获取目标车辆的3D检测框。与现有技术相比,该方法能够精确地对交通场景的车辆进行识别和定位。

本发明授权一种基于密集关联的单目3D车辆检测方法在权利要求书中公布了:1.一种基于密集关联的单目3D车辆检测方法,用于自动驾驶车辆对交通场景中车辆的识别和定位,其特征在于,包括以下步骤: S1:通过车载相机采集单张的前视图像; S2:计算所述前视图像中的各像素点在相机坐标系下的实际2D坐标; S3:对所述前视图像进行处理,依次获取多尺度特征、高分辨率特征图,以及由高斯混合模型描述的高分辨率特征图上各像素点的3D坐标向量的概率分布,将各像素点的3D坐标向量的概率分布处理为各像素点在各局部坐标系下的动态3D坐标的概率分布,训练时再将3D分布投影为相机坐标系下的2D坐标的概率分布,并采用负对数似然损失函数训练网络以最小化重影误差,使各像素点实际的2D坐标在2D坐标概率分布下的负对数似然最小化,进而使得每一个像素点生成一组2D-3D关联; S4:设置第一网络分支,根据所述高斯混合模型,判定各像素点对应的唯一目标车辆,并对各像素点对应的唯一目标车辆的中心位置进行聚类,实现自下而上的实例分割,进而使得S3中构建的2D-3D关联被划分为各个车辆的密集2D-3D关联; S5:由所述密集2D-3D关联构建PnP问题并进行求解,获取所述目标车辆的位置和角度; S6:根据S4的实例分割结果,设置第二网络分支,获取各像素点对应的唯一目标车辆的尺寸,并结合S5获取的目标车辆的位置和角度,获取包含位置、角度、尺寸信息的车辆3D检测框; 所述局部坐标系为以每个所述目标车辆的底面中心点为原点,以每个所述目标车辆的前方为x轴,以每个所述目标车辆的下方为y轴,以每个所述目标车辆的左方为z轴而建立的坐标系; 所述S3包括以下步骤: S3.1:依次通过残差网络和特征金字塔网络对前视图像进行处理,获取前视图像的多尺度特征; S3.2:对所述多尺度特征依次进行变形卷积、双线性插值重采样和拼接处理,获取多尺度融合的高分辨率特征图; S3.3:通过由卷积层构成的分支网络输出高分辨率特征图上各像素点的3D坐标向量,并采用高斯混合模型描述各像素点的3D坐标向量的概率分布; S3.4:从多尺度特征中提取各目标车辆的区域特征,根据S3.3中的高斯混合模型获取各像素点在各局部坐标系下的动态3D坐标的概率分布,将各像素点在各局部坐标系下的动态3D坐标的概率分布转换为相机坐标系下的2D坐标的概率分布,采用负对数似然损失函数训练网络以最小化重影误差,即使各像素点实际的2D坐标在2D坐标概率分布下的负对数似然最小化,进而使得每一个像素点生成一组2D-3D关联; 所述S4包括以下步骤: S4.1:划分前视图像中的各目标车辆在前视图像上所占的2D空间区域,并设置第一网络分支,在高分辨率特征图中回归各像素点所属目标车辆的几何中心点的2D位置相对于像素点位置的偏移量,使得每一个像素点都能定位其所属目标车辆的中心位置; S4.2:通过最小重投影误差准则判定各高斯混合模型对应的目标车辆,进而获取高斯混合模型对应的目标车辆的实际中心位置 S4.3:计算每一个像素点所属的目标车辆的中心位置和高斯混合模型对应的目标车辆的实际中心位置之间的偏移量,并寻找最小的偏移量,进而判定各像素点对应的唯一目标车辆;并通过平滑L1损失函数训练第一网络分支,使得各像素点对应的唯一目标车辆的中心位置xctr与唯一目标车辆的实际中心位置的偏移量最小; S4.4:设置前景网络分支用以在高分辨率特征图上分割前景像素,通过交叉熵损失函数训练该网络分支,获取前景网络分支; S4.5:根据前景网络分支和S3中建立的高斯混合模型,对各像素点对应的唯一目标车辆的中心位置进行聚类,实现自下而上的实例分割,进而使得S3.4中所构建的2D-3D关联被划分为各个车辆的密集2D-3D关联。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人同济大学,其通讯地址为:200092 上海市杨浦区四平路1239号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。