合肥工业大学王昕获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉合肥工业大学申请的专利基于视角选择和多特征融合的光场显著性目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116778296B 。
龙图腾网通过国家知识产权局官网在2026-01-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310692408.9,技术领域涉及:G06V10/82;该发明授权基于视角选择和多特征融合的光场显著性目标检测方法是由王昕;付伟;冯进;高隽设计研发完成,并于2023-06-09向国家知识产权局提交的专利申请。
本基于视角选择和多特征融合的光场显著性目标检测方法在说明书摘要公布了:本发明公开了一种基于视角选择和多特征融合的光场显著性目标检测方法,包括:1、获取光场显著性目标检测数据集;2、多视角图像选择方案;3、构建基于视角选择和多特征融合的深度卷积神经网络,以RGB图像、多视角图像和深度图像作为输入,对深度神经网络进行训练,得到光场显著性目标检测模型;4、利用训练好的模型实现对待检测图像的显著性目标检测。本发明能有效提高复杂多变环境下场景的显著性目标检测的准确性,从而为相关的计算机视觉任务提供重要的先验信息。
本发明授权基于视角选择和多特征融合的光场显著性目标检测方法在权利要求书中公布了:1.一种基于视角选择和多特征融合的光场显著性目标检测方法,其特征在于,是按照如下步骤进行: 步骤1、获取光场显著性目标检测数据集Ω={R,M,Z};其中,R表示RGB图像集合,M表示以所述RGB图像集合R中每张图像为中心图像的多视角图像集合,Z表示所述RGB图像集合R中每张图像所对应的深度图像集合;令RGB图像集合中的任一第m张图像记为rm,则以图像rm为中心图像的多视角图像记为{viewm,1,viewm,2,…,viewm,n,…,viewm,N},其中,viewm,n表示以图像rm为中心图像的第n个视角图像;N表示多视角图像的数量;图像rm所对应的深度图像记为zm; 步骤2、多视角图像选择; 从图像rm的多视角图像中{viewm,1,viewm,2,…,viewm,n,…,viewm,N}中选取4个间隔为45°的视点角度下的若干张图像各自组成一组视角图像,记为{listθ|θ=1,2,3,4};其中,listθ表示第θ组视角图像; 将第θ组视角图像listθ在通道维度进行融合和降维操作后,得到第θ组融合图像list'θ; 步骤3、构建基于视角选择和多特征融合的光场显著性目标检测模型,包括:编码器、通道降维模块、3个视差提取模块,解码器和融合-反馈模块; 步骤3.1、所述编码器包含L个基本块,每个基本块利用卷积层对第θ组融合图像list'θ进行处理后,得到第θ个视点角度下L个特征图其中,表示第θ个视点角度下第i个特征图; 将所述RGB图像集合R中的图像rm及其对应的深度图像记为zm分别输入所述编码器中进行处理,得到L个边缘特征{Ei|i=1,2,…N}和L个深度特征{Di|i=1,2,…N};其中,Ei表示第i个边缘特征,Di表示第i个深度特征; 步骤3.2、所述通道降维模块依次由两个卷积层,一个批量归一化层和一个ReLU激活层构成,并对第θ个视点角度下L个特征图进行处理后,得到降维后的L个特征图其中,表示第θ个视点角度下降维后的第i个特征图; 步骤3.3、3个视差提取模块依次对进行处理后,得到4个视点角度下第i个总视差信息从而得到总视差流 步骤3.4、所述解码器由L个解码模块组成;每个解码模块依次由卷积层、批量归一化层和ReLU激活层构成; 当i=L时,将第i个总视差信息输入第i个解码模块中进行处理,得到第i个解码特征 当i=L-1,L-2,…,1时,将第i+1个解码特征和第i个总视差信息输入第i个解码模块中进行处理,得到第i个解码特征从而由第1个,得到第i个解码模块输出最终的多视角图像特征 将所述RGB图像特征{Ei|i=1,2,…L}和深度图像特征{Di|i=1,2,…L}分别输入到解码器中进行处理,得到解码后的RGB图像特征和深度图像特征 步骤3.5、所述融合-反馈模块由通道融合模块和反馈模块组成; 步骤3.5.1、所述通道融合模块利用式4得到粗糙的预测显著图 式4中,cat表示通道融合操作,⊙表示元素级乘法; 步骤3.5.2、所述反馈模块依次由L个子反馈模块构成,每个子反馈模块依次由卷积层、批量归一化层,ReLU激活层和最大池化层构成; 所述粗糙的预测显著图通过依次通过L个子反馈模块处理,并在每个子反馈模块产生一种尺度的特征后,对应反馈输入到L个解码器中,从而生成准确的预测显著图Xpre; 步骤4、训练基于视角选择和多特征融合的光场显著性目标检测模型; 步骤4.1、建立损失函数; 步骤4.1.1、通过式5、式6和式7分别建立空间损失函数Ls、边缘损失函数Le和深度损失函数Ld: 式5、式6和式7中,Egt为图像rm的真实边缘图,Xgt为图像rm的真实显著图; 步骤4.1.2、通过式8建立融合特征损失函数: 步骤4.1.3、通过式9建立总损失函数: L=Ls+Le+Ld+Lcaf9 步骤4.2、基于数据集Ω={R,M,Z},利用随机梯度下降算法对所述基于视角选择和多特征融合的深度神经网络模型进行训练,并计算总损失函数L以更新网络参数,直到总损失函数收敛为止,从而得到最优光场显著性目标检测模型,用于对光场图像进行显著性目标检测。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人合肥工业大学,其通讯地址为:230009 安徽省合肥市包河区屯溪路193号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励