西安理工大学孙晗获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉西安理工大学申请的专利基于深度学习的多视角三维重建方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119131242B 。
龙图腾网通过国家知识产权局官网在2025-09-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411135002.1,技术领域涉及:G06T17/00;该发明授权基于深度学习的多视角三维重建方法是由孙晗;刘晟;李文斌;曹霆;张彤;李学平设计研发完成,并于2024-08-19向国家知识产权局提交的专利申请。
本基于深度学习的多视角三维重建方法在说明书摘要公布了:本发明公开了基于深度学习的多视角三维重建方法,步骤是:步骤1,多视角图像采集;步骤2,图像预处理;步骤3,二维图像特征提取;步骤4,多视角特征融合;步骤5,将二维图像与三维模型相结合;步骤6,利用级联形变网络优化初始的三维模型,级联形变网络结合感知特征池化层的输出,经过多次形变,逐步优化初始的三维模型;步骤7,输出三维网格模型,在三维重建网络中经过多次的形变,最终变换得到精细的三维网格模型。本发明属于计算机视觉和图形技术领域,解决了现有技术中利用单一视角的单张图像重建的三维模型的完整性较差,三维重建网络的细节不够丰富,导致三维重建模型的应用场景受限的问题。
本发明授权基于深度学习的多视角三维重建方法在权利要求书中公布了:1.基于深度学习的多视角三维重建方法,其特征在于,按照以下步骤实施: 步骤1,多视角图像采集,采用标定好的数码相机对需要重建的物体从正面、背面、左侧和右侧四个视角进行拍摄,得到清晰的视角信息,具体过程是: 1.1)在拍摄四个视角的图像时,选择光线均匀的时间段进行拍摄,同时保持不同视角间数码相机与物体的距离相等; 1.2)拍摄时,数码相机依次面向目标物体的正面、背面、左侧和右侧,与物体表面呈90度角,且拍摄轴线垂直于各个面; 1.3)确保从前、后、左、右四个视角采集的图像在空间上互不重叠,检查每个视角的图像,将图像中与其他视角重叠的区域裁剪掉; 步骤2,图像预处理,对采集到的不同视角的图像进行相同的预处理操作,包括色彩矫正和去噪,具体过程是: 2.1)对图像进行色彩矫正, 利用相同的方法改变图像中所有像素的颜色值,色彩矫正图像的表达式如下: 其中,i表示目标色彩空间中的通道;j表示源色彩空间中的通道;M ij表示从源色彩空间的第j个通道到目标色彩空间的第i个通道的转换权重; 2.2)利用中值滤波的方式去除图像中的噪声,改善图像质量, 在图像中移动一个窗口,并用该窗口中所有像素的中值替换中心像素; 步骤3,二维图像特征提取,具体过程是: 3.1)构建图像特征提取模块,对VGG16网络进行改进,仅保留从conv1_2至conv5_3的完整卷积与池化结构; 图像特征提取模块共有五个模块,分别命名为Conv1_2、Conv2_2、Conv3_3、Conv4_3、Conv5_3,利用各卷积层获取二维图像不同层次的特征信息,提取各视角的二维图像特征; 3.2)引入金字塔特征注意力网络,将Conv1_2与Conv2_2的输出特征F1、F2作为低层次特征,送入空间注意力模块;将Conv3_3、Conv4_3、Conv5_3的输出特征F3、F4、F5作为高层次的特征,送入感知上下文的特征金字塔模块以及通道注意力模块,以获取更加丰富的语义信息;然后通过上采样的方式将不同尺度的特征进行融合作为该模块的输出;通道注意力模块对来自特征金字塔模块的特征进行加权,提高目标信息所在通道的权重;随后通过上采样方式调整特征图大小,将两个不同分支的特征融合作为金字塔特征注意力网络的输出; 3.3)利用搭建的图像特征提取模块,采用多个输入分支,每个分支独立提取各个视角的图像特征,完成对多视角二维图像特征的提取; 步骤4,多视角特征融合,对于步骤3中各输入分支提取出的二维图像特征图进行融合处理,作为后续三维重建网络的输入,采用基于统计相似度特征引导的融合策略具体为: 在每个视角图像的四个角分别选取大小为32×32像素的邻域窗口;在每个邻域内计算三种通道级的统计量,包括均值、最大值、标准差;对不同的视角赋予不同的权重,对每个视角的统计量进行加权,计算加权后的均值、最大值、标准差;将统计值代入欧式距离中计算不同视角邻域之间的语义相似度;根据相似度计算结果将具有高相似度的视角特征进行拼接融合; 步骤5,将二维图像与三维模型相结合, 具体过程是:利用感知特征池化层将二维图像特征提取模块的输出与三维空间中的模型相结合,实现二维图像到三维模型的转换, 在感知特征池化层中,给定一个顶点的三维坐标,使用数码相机的内部函数计算它在输入平面上的二维投影,由于该顶点在二维空间下是个连续的位置,使用双线性插值从附近的四个像素计算这个位置对应的特征; 步骤6,利用级联形变网络优化初始的三维模型,级联形变网络结合感知特征池化层的输出,经过多次形变,逐步优化初始的三维模型, 具体的,级联形变网络由网格变形块和图像上池化层组成,网格变形块通过将二维图像特征与网格中顶点坐标结合起来,更新每个顶点的位置以及特征向量;图像上池化层是一个上采样操作,用于增加变形网格的顶点数量, 损失函数在网络训练中起核心作用,用于评估三维重建网络得出的预测模型和利用三维扫描设备获得的实际模型之间的差异,在训练过程中根据损失函数的结果对参数进行调整,进而构建三维网格模型, 以下从模型的顶点和法线向量方面定义其损失函数,由倒角损失函数、法线损失函数、拉普拉斯正则化以及边长正则化四部分组成: a)倒角损失函数是衡量两组点集之间距离,其计算公式为: , 其中,为从重建网格模型中采样点的集合,为真实的三维模型中采样点的集合;、分别属于两个点集里面的点; b)法线损失函数是通过比较预测的表面法线和真实的表面法线之间的差异来计算的,其计算公式为: , 其中,约束条件为k∈S,u表示重建网格模型中的一个顶点,S表示与顶点u相邻的点集合;v为真实的三维模型中距离u最近的顶点,该点通过倒角损失函数得到;n表示法线向量;n v表示从真实的三维模型得到的法线向量; c)拉普拉斯正则化的计算公式为: ,, 其中,是一个顶点在变形前的拉普拉斯坐标,是一个顶点在变形后的拉普拉斯坐标; d)边长正则化对模型的边长进行约束或优化,其计算公式为: ; 步骤7,输出三维网格模型,在三维重建网络中经过多次的形变,最终变换得到精细的三维网格模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西安理工大学,其通讯地址为:710048 陕西省西安市碑林区金花南路5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。
请提出您的宝贵建议,有机会获取IP积分或其他奖励