东南大学达飞鹏获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉东南大学申请的专利一种基于深度学习的多视点视频拼接方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115345781B 。
龙图腾网通过国家知识产权局官网在2026-02-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210956950.6,技术领域涉及:G06T3/4038;该发明授权一种基于深度学习的多视点视频拼接方法是由达飞鹏;衡玮设计研发完成,并于2022-08-10向国家知识产权局提交的专利申请。
本一种基于深度学习的多视点视频拼接方法在说明书摘要公布了:本发明公开了一种基于深度学习的多视点视频拼接方法,步骤如下:首先,利用Airsim模拟器在设定的虚拟公共视点处采集图像及深度数据,生成用于视频拼接任务的数据集,对图像作柱面投影等预处理。然后,利用卷积神经网络分别设计伪影消除模块和平滑过渡模块,前者考虑重叠区域的特征相关性,通过视点回归将重叠区域进行对齐以消除融合后的伪影;后者根据图像的特征信息,将得到的重叠区域变形规则传播到非重叠区域,来指导区域间的平滑过渡以改善视觉观感。最后按照预测的位移场扭曲变换原视点图像,并进行加权线性融合得到拼接结果。该发明在去除拼接伪影的同时,可以达到实时拼接的性能,能够满足实际应用中的在线拼接需求。
本发明授权一种基于深度学习的多视点视频拼接方法在权利要求书中公布了:1.一种基于深度学习的多视点视频拼接方法,其特征在于,包括以下步骤: 步骤1:在设定的虚拟公共视点处采集图像及深度数据,生成用于视频拼接任务的数据集,并对数据集中的图像根据相机视角作柱面投影预处理; 步骤2:由深度数据得到场景的3D信息,转换得到像素级的位移场; 步骤3:利用卷积神经网络设计伪影消除模块,考虑重叠区域的特征相关性,将重叠区域进行对齐,视点回归到重合的虚拟光心下,以消除融合后产生的伪影; 步骤4:利用卷积神经网络设计平滑过渡模块,根据图像的特征信息,将得到的重叠区域变形规则传播到非重叠区域,来指导区域间的平滑过渡,减少视觉上的割裂感; 步骤5:按照位移场扭曲变换原视点图像,并进行加权线性融合,得到拼接结果; 所述步骤3的具体方法为: 在视频拼接任务中,重叠区域少,为了减少过滤无效区域,同时减少计算量,根据相机的配置方式得到包含重叠区域的最大二进制掩码Mov_max,从输入图像中提取这部分,再输入当前模块中; 对于可能的重叠区域,设计了编码器-解码器的结构,对于编码器,将两张图片按通道维度堆叠到一起,使用一系列卷积层下采样提取特征,解码器由一系列上采样层和卷积层组成,其中使用了跳跃连接;输入编码器对应层的特征以及解码器上一层输出的位移场,逐步上采样进行优化,当得到14分辨率的位移场时,通过双线性插值直接将其进行上采样,得到与输入分辨率相同大小的重叠区域位移场; 为了训练伪影消除模块,定义了位移场损失、内容损失、感知层损失; 由两张图像的位移场,对原视点的二进制掩码进行变换,得到实际重叠区域的二进制掩码Mov,根据网络预测的像素位移场flowO,对重叠区域构造L1损失函数: 其中,flowgt为视点变换过程中的位移场; 内容损失计算虚拟视点处的图像Igt和网络输出的图像IO在重叠区域处的L1Loss: 感知层损失的目的是为了使变换后图像的特征尽可能保持一致,利用预训练的VGG-19特征提取网络中的conv5_3层提取深层次的高级语义特征,将该过程定义为F·,计算该层上的MSELoss,并用重叠区域掩码Mov进行提取: 则该模块总的损失函数为:
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人东南大学,其通讯地址为:210096 江苏省南京市玄武区四牌楼2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励