南京理工大学张萌获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京理工大学申请的专利一种用于数字服装仿真细节增强的动态几何超分辨率方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119295318B 。
龙图腾网通过国家知识产权局官网在2025-12-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411399515.3,技术领域涉及:G06T3/4053;该发明授权一种用于数字服装仿真细节增强的动态几何超分辨率方法是由张萌;李俊设计研发完成,并于2024-10-09向国家知识产权局提交的专利申请。
本一种用于数字服装仿真细节增强的动态几何超分辨率方法在说明书摘要公布了:本发明公开了一种用于数字服装仿真细节增强的动态几何超分辨率方法,以低分辨率服装仿真序列为输入,实现高分辨率、高频几何细节增强,生成褶皱细节生动细腻的高保真数字服装形变序列。该方法结合布料物理动力特征、服装与身体的相互作用信息,基于有监督的深度学习,实现在非规则网格体几何表面提取超分特征,通过超参数网络使用超分特征来构造服装动态几何细节上采样隐式函数,生成高分辨率几何细节。该方法在生成高分辨率几何细节的同时矫正低分辨率网格体几何形变,使得所生成的服装细节质量大幅提升。该发明提供了一种轻量化的、高效的服装细节增强方法,有助于将高保真服装实时仿真应用于低预算、普惠性应用场景。
本发明授权一种用于数字服装仿真细节增强的动态几何超分辨率方法在权利要求书中公布了:1.一种用于数字服装仿真细节增强的动态几何超分辨率方法,其特征在于,所述方法包括以下步骤: 步骤1,生成训练数据; 步骤2,构建动态细节增强神经网络,该网络包括:图神经网络、几何矫正解码器和超参数神经网络;所述图神经网络用于生成低分辨率几何网格体的超分特征,由编码器、图卷积神经网络、超分解码器构成;所述几何矫正解码器用于求解低分辨率几何网格体矫正向量;所述超参数神经网络用于构造服装动态细节上采样隐式场,包括子网络和子网络,的参数由计算获得; 步骤3,使用步骤1中的训练数据,优化动态细节增强神经网络中的可学习网络参数; 步骤4,建模目标数字服装低分辨率几何网格体模版,并建模在纹理空间与之对齐的高分辨率几何网格体模版; 步骤5,根据步骤4获得的各数字服装模版,求解从低分辨率网格拓扑向高分辨率网格拓扑的映射:根据网格体在纹理空间的对应关系,获得每个高分辨率网格顶点所对应的低分辨率网格面片,以及上采样系数,并进一步构建上采样矩阵; 步骤6,使用目标人体运动序列驱动步骤4所构建的低分辨率几何网格体模版,仿真生成低分辨率几何网格体形变序列; 步骤7,在时刻帧,使用步骤2中的图神经网络,计算步骤6得到的低分辨率几何网格体形变的所有网格面片超分特征; 步骤8,以步骤7获得的网格面片超分特征为输入,使用步骤2中的几何矫正解码器求解低分辨率几何网格体形变矫正向量,获得低分辨率几何形变矫正:; 同时,以网格面片超分特征为输入,对每个面片使用步骤2中的构建对应的子网络;以步骤5中的上采样系数为输入,计算高分辨率几何网格顶点的细节残差向量,由此获得所有高分辨率几何网格顶点的细节残差向量; 使用步骤5中的上采样矩阵实现服装几何形变网格体分辨率上采样,计算当前时刻帧动态细节增强的服装高分辨率几何网格体形变:; 步骤9,基于由步骤8获得的当前时刻帧的预测结果,迭代滚动地预测下一时刻帧的服装高分辨率几何网格体形变,直至完成所有序列帧的数字服装细节增强。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京理工大学,其通讯地址为:210094 江苏省南京市玄武区孝陵卫200号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励