杭州电子科技大学刘鹏获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉杭州电子科技大学申请的专利一种基于RGB-D相机点线特征融合的视觉SLAM方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118887359B 。
龙图腾网通过国家知识产权局官网在2025-09-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411011630.9,技术领域涉及:G06T17/05;该发明授权一种基于RGB-D相机点线特征融合的视觉SLAM方法是由刘鹏;张啸威设计研发完成,并于2024-07-26向国家知识产权局提交的专利申请。
本一种基于RGB-D相机点线特征融合的视觉SLAM方法在说明书摘要公布了:本发明公开了一种基于RGB‑D相机点线特征融合的视觉SLAM方法,主流的SLAM系统适用的场景严格受到它们对静态环境的假设的限制,以及在低纹理或弱纹理区域下,普通的特征点提取方法检测不到稳定的图像特征,同时弱纹理区域普遍存在弱梯度场分布特性,在这些区域中的特征描述符存在较低的区分度,容易产生误匹配的问题。本发明针对所描述问题场景,结合注意力机制和图神经网络训练出一种点线特征提取匹配的神经网络并提出了一种基于RGB‑D相机点线特征融合的视觉SLAM方法。本发明特征提取及匹配网络复用性强,在视觉匹配领域也具有应用场景。
本发明授权一种基于RGB-D相机点线特征融合的视觉SLAM方法在权利要求书中公布了:1.一种基于RGB-D相机点线特征融合的视觉SLAM方法,其特征在于,包括如下步骤: 1构建并训练神经网络DPLAGNNs,获取视频流中的连续两帧作为图片A和图片B,将图片A和图片B输入神经网络DPLAGNNs,得到图片A和图片B的匹配矩阵;匹配矩阵包含特征点与特征线在图片A和图片B中的位置信息与匹配信息; 所述神经网络DPLAGNNs包括输入层和由L个AGNNs层组成的模块; 所述输入层包括:特征提取层Extractor和合并点机制MergePoint; 所述AGNNs层包括:两个多层感知机网络MLP、自注意力层NodeSelf-Attention、线传递层LinePassing、交叉注意力层NodeCross-Attention、判别器Confidence层和Softmax匹配层; 2关键帧初始化: 设定阈值;基于匹配信息得到匹配数,当图片A和图片B的匹配数超过设定阈值时,将图片A为关键帧初始帧; 首先使用特征点进行初始位姿估计:构建基本矩阵的一个估计值并求解后得到旋转矩阵和平移向量,作为初始位姿的估计值; 之后利用特征点和特征线的重投影误差构建代价函数,最小化此代价函数进一步优化初始位姿的估计值得到初始位姿; 3基于初始位姿,进行局部建图与回环检测; 步骤3包括如下步骤:构建并维护一个共视图,所述共视图中包括共视关键帧,构建共视图的方式包括如下步骤: 计算当前帧关键点与其他关键帧之间的几何平均值几何平均值超过预设阈值,则认定为存在共视关系;将存在共视关系的当前帧加入共视图;所述共视图是图结构,其中节点表示关键帧,边表示它们之间的共视关系; 局部BA优化:利用特征点和特征线的重投影误差构建代价函数;将共视图内包含的关键帧和这些关键帧能观察到的所有的点和线所有其他的关键帧不在关键帧上,但能观察到和中的点和线,也加入代价函数中,但不改变其位姿,之后基于共视图中的关键帧得到局部地图,使用这个局部地图来进行实时的定位和建图; 对关键帧中的特征点和特征线建立一个数据库;根据特征点和特征线计算得到分配矩阵Sp并计算其几何平均值来判断两幅图之间是否形成了闭环,若发生闭环则进行全局BA优化以调整相机姿态和路标点的位置;所述全局BA的优化策略如下:当发生闭环时,使用单独的线程优化所有关键帧之间重投影误差,允许系统创建地图和检测环路;如果在优化运行时检测到新的环路,将中止优化并继续关闭环路,这将再次启动全局BA优化;当全局BA完成时,将由BA优化的关键帧和关键点的更新子集与在优化运行时插入的非更新的关键帧和点进行合并。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州电子科技大学,其通讯地址为:310018 浙江省杭州市钱塘区白杨街道2号大街1158号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。
请提出您的宝贵建议,有机会获取IP积分或其他奖励