Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京理工大学赵三元获国家专利权

北京理工大学赵三元获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京理工大学申请的专利一种基于神经辐射场的实时口播视频生成方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119232971B

龙图腾网通过国家知识产权局官网在2026-01-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411116179.7,技术领域涉及:H04N21/234;该发明授权一种基于神经辐射场的实时口播视频生成方法是由赵三元;王牧宇设计研发完成,并于2024-08-14向国家知识产权局提交的专利申请。

一种基于神经辐射场的实时口播视频生成方法在说明书摘要公布了:本发明涉及一种基于神经辐射场的实时口播视频生成方法,属于计算机视觉技术领域。本发明包括步骤:1、对视频数据进行预处理;2、在三维多分辨率哈希网格通过空间特征编码方法进行体渲染所需的体密度计算,进而得到三维多分辨率网格的编码特征;3、对音频特征进行编码;4、对眼部特征进行编码,用于对视频中人物眼部的状态表征;5、对动态的口播视频进行组合;与现有技术相比,能够以更短的训练时间完成对人物的重建,并以实时渲染的速度高效地实现音频驱动的口播视频渲染。不仅在渲染质量上优于先前的方法,能够重现出更清晰的人物面部细节,在渲染视频的唇音一致性上也优于先前的方法。

本发明授权一种基于神经辐射场的实时口播视频生成方法在权利要求书中公布了:1.一种基于神经辐射场的实时口播视频生成方法,其特征在于:包括以下步骤, 步骤1:对视频数据进行预处理; 步骤2:在三维多分辨率哈希网格通过空间特征编码方法进行体渲染所需的体密度计算,进而得到三维多分辨率网格的编码特征; 步骤3:对音频特征进行编码; 步骤3.1:通过自注意机制的一维卷积网络将初始音频特征转换为一个平滑的64维平滑音频特征; 步骤3.2:对音频64维平滑音频特征进行编码,并提出一种方法来融合音频特征和空间几何信息; 步骤3.2.1:对音频64维平滑音频特征与步骤2中的三维多分辨率网格的编码特征作为输入通过一个MLP进行降维后,输出一个二维音频特征向量; 步骤3.2.2:利用一个二维的多分辨率哈希网格对二维音频特征向量进行编码得到音频的编码特征,用于控制人物的嘴型动作; 步骤4:对眼部特征进行编码,用于对视频中人物眼部的状态表征; 步骤4.1:对眼部图像中提取眼部特征并对于每帧眼部图像的左眼和右眼区域裁剪出两个眼部图片块,将两个眼部图片块输入至送到预训练的ResNet编码器中获取当前帧的眼部特征; 步骤4.2:通过眼部特征获取眼部信号; 步骤4.2.1:对眼部特征数据在预处理阶段进行语义分割生成眼部掩码,计算眼部图像中眼部区域的百分比p; 步骤4.3:对每帧眼部图像采用如式3所示方式分配一个眼部信号,并将眼部信号趋向于0或1分别代表眼睛的闭合状态和睁开状态; 其中,pmax和pmin分别代表所有训练帧中图像眼部占比p的最大值和最小值,然后将眼部特征乘以这一信号量e,用以作为最终会输入模型的眼部特征; 步骤5:对动态的口播视频进行组合。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。