南京理工大学于纪言获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京理工大学申请的专利基于纹理区域自适应动态代价计算和聚合的立体匹配方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114565647B 。
龙图腾网通过国家知识产权局官网在2025-07-01发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210175469.3,技术领域涉及:G06T7/33;该发明授权基于纹理区域自适应动态代价计算和聚合的立体匹配方法是由于纪言;陈艺设计研发完成,并于2022-02-24向国家知识产权局提交的专利申请。
本基于纹理区域自适应动态代价计算和聚合的立体匹配方法在说明书摘要公布了:本发明为一种基于纹理区域自适应动态代价计算和聚合的立体匹配方法。具体为:1输入双目图像;2代价计算:将图像划分为强、弱和无纹理区域,在强纹理区域采用AD与Census相结合的代价计算,在弱和无纹理区域采用AD与梯度相结合的代价计算;3代价聚合:在十字臂的构建过程中弱化像素点值之差约束条件,增加梯度幅值之差的约束条件,使得在图像的弱和无纹理区域的构建臂长变长;4采用WTA策略筛选出最小代价值,计算出视差值;5视差优化后处理;6输出最终视差图。本发明方法具有较好的稳健性,能够较好地适应不同的场景,也可以应用在3D地图重建、目标检测,无人驾驶和虚拟现实等不同领域发展潮中,具有广阔的应用前景。
本发明授权基于纹理区域自适应动态代价计算和聚合的立体匹配方法在权利要求书中公布了:1.一种基于纹理区域自适应动态代价计算和聚合的立体匹配方法,其特征在于,包括如下步骤: 步骤1:输入经过矫正的双目图像; 步骤2:代价计算:将图像划分为强纹理区域、弱纹理区域和无纹理区域,在强纹理区域采用AD与Census相结合的代价计算,在弱纹理区域和无纹理区域采用AD与梯度相结合的代价计算; 步骤3:代价聚合:在十字臂的构建过程中弱化像素点值之差约束条件,增加梯度幅值之差的约束条件,使得在图像的弱纹理区域和无纹理区域的构建臂长变长; 步骤4:采用WTA策略筛选出最小代价值,计算出相应视差值; 步骤5:视差优化后处理:将步骤4得到的视差值进行四步优化策略,得到优化后的视差图; 步骤6:输出最终视差图; 步骤3具体为: 在强纹理区域设置颜色值之差和空间臂长之差两约束条件;在弱纹理和无纹理区域设置梯度和空间臂长之差两约束条件;具体表达式如下: 其中DGp,q=|DGp-DGq|表示两像素点p和q之间的梯度值之差的绝对值,ql为像素点q的相邻点,τ1为像素点q与其相邻点ql的颜色值之差的最大值阈值,当p和q以及ql和q中任意一对像素点的空间距离在[L2,L1]之间时,设置更加严格的颜色阈值τ2,其中Dcp,q表示p和q两像素点的颜色值之差,DGp,q表示p和q两像素点的梯度值之差,DSp,q表示p和q两像素点之间的空间距离之差,ql和q也有类似对比关系,L1为最大空间臂长距离,τ3和τ4分别为两断臂长范围内的梯度阈值; 步骤5中的“四步优化策略”具体为: 左右一致性检查、迭代局部投票、视差非连续区调整和子像素优化。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京理工大学,其通讯地址为:210094 江苏省南京市孝陵卫200号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。