山东科技大学;北京航空航天大学陈伟海获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉山东科技大学;北京航空航天大学申请的专利一种基于无监督的多帧内镜场景深度估计方法及设备获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115661224B 。
龙图腾网通过国家知识产权局官网在2025-07-01发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210582504.3,技术领域涉及:G06T7/55;该发明授权一种基于无监督的多帧内镜场景深度估计方法及设备是由陈伟海;邵树威;张桂林;张建强;孙崇尚设计研发完成,并于2022-05-26向国家知识产权局提交的专利申请。
本一种基于无监督的多帧内镜场景深度估计方法及设备在说明书摘要公布了:本发明公开了一种基于无监督的多帧内镜场景深度估计方法及设备,属于外科导航技术领域,用于解决现有内镜场景深度图在自适应传播中,由于非朗伯反射以及相互反射导致低纹理和均匀纹理区域的表征不明显,并且在亮度波动区域的鲁棒性效果差。方法包括:确定内镜场景图像对应的点云转换视图,并将点云转换视图的目标帧以及源帧进行合成,得到合成帧;提取合成帧中的关键点,确定采样像素深度;将采样像素深度与合成帧结合,得到光度损失;根据目标帧,得到交叉教学一致性损失以及自主教学一致性损失;并再结合预设边缘感知平滑性损失,得到总优化损失;对无监督多帧单目训练深度估计模型进行优化训练,输出优化后的内镜场景深度图。
本发明授权一种基于无监督的多帧内镜场景深度估计方法及设备在权利要求书中公布了:1.一种基于无监督的多帧内镜场景深度估计方法,其特征在于,所述方法包括: 确定内镜场景图像对应的点云转换视图,并将所述点云转换视图的目标帧以及源帧进行合成,得到合成帧; 提取所述合成帧中的关键点,并根据所述关键点,确定采样像素深度; 将所述采样像素深度与所述合成帧结合,得到光度损失,具体包括: 根据深度合成式:得到源帧视图s到目标帧视图t的支持域其中,K为获取内镜场景的相机本身的参数,Mt→s为目标帧视图t到源帧视图s的相对姿态,为目标帧视图t关键点pk的像素坐标,为所述目标帧支持域的深度图; 根据得到所述源帧到所述目标帧的支持域合成帧其中,·为翘曲度计算操作; 根据得到所述光度损失Lph;其中,Itpk为所述目标帧视图t的关键点,φItp,Is→tp为合成帧光度损失; 根据所述目标帧,得到交叉教学一致性损失以及自主教学一致性损失,根据所述目标帧,得到交叉教学一致性损失以及自主教学一致性损失,具体包括: 根据得到交叉教学一致性损失Lct;其中,Dtp为所述目标帧的深度图,为可丢弃深度估计网络的深度图; 根据得到自主教学一致性损失Lst;其中,Rp为随机掩码确定的随机掩码确定的未遮挡掩码,为外观模拟器导出的帧与原始帧一致性变换后的特征映射; 通过所述光度损失、所述交叉教学一致性损失、所述自主教学一致性损失以及预设边缘感知平滑性损失,得到总优化损失,根据所述光度损失、所述交叉教学一致性损失、所述自主教学一致性损失以及预设边缘感知平滑性损失,得到总优化损失,具体包括: 根据得到所述预设边缘感知平滑性损失Les;其中,为梯度算子,Itp为所述目标帧,Dp为边缘感知深度图; 根据L=λ1Lph+λ2Lct+λ3Lst+λ4Les,得到所述总优化损失L;其中,λ为权重参数,Lpj为所述光度损失,Lct为所述交叉教学一致性损失,Lst为所述自主教学一致性损失; 根据所述总优化损失,对无监督多帧单目训练深度估计模型进行优化训练,以使所述无监督多帧单目训练深度估计模型输出优化后的内镜场景深度图。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人山东科技大学;北京航空航天大学,其通讯地址为:266590 山东省青岛市黄岛区前湾港路579号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。