南京理工大学王贝贝获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京理工大学申请的专利一种从单张图像捕获织物外观的方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115641398B 。
龙图腾网通过国家知识产权局官网在2026-03-27发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211053673.4,技术领域涉及:G06T15/00;该发明授权一种从单张图像捕获织物外观的方法是由王贝贝;靳文华设计研发完成,并于2022-08-31向国家知识产权局提交的专利申请。
本一种从单张图像捕获织物外观的方法在说明书摘要公布了:本发明公开了一种从单张图片捕获织物外观的方法,提出了一种前向织物着色模型和一个估计模型参数的逆过程框架,包括一个神经网络和基于可微分渲染的优化策略,前向着色模型将织物纱线视为弯曲和扭曲的圆柱体,使用基于microflake的BRDF模型对其进行着色,该模型可以在一大类编织布料上生成逼真的渲染效果,并且适应于可微分渲染。使用一种简单廉价的织物捕获配置捕获真实的织物数据,使用前向着色模型生成的大型合成数据集上训练的神经网络,从拍摄的单张图片中估计前向模型的参数,然后通过可微分渲染进一步优化这些参数产生更精确的结果。该方法实现了对捕获的织物样本的高质量重建,可用于高效渲染和进一步编辑。
本发明授权一种从单张图像捕获织物外观的方法在权利要求书中公布了:1.一种从单张图像捕获织物外观的方法,其特征在于,包括以下步骤: 步骤一,搭建一个织物捕获场景,拍摄得到织物图像,进行裁剪、调整分辨率这些预处理操作; 步骤二,编辑织物纱线编织图案,导出对应的法线和方向贴图; 步骤三,使用前向着色模型,根据步骤二导出的贴图,对模型的其他参数随机采样,生成训练数据集; 步骤四,构建网络模型,在步骤三生成的数据集上训练,得到训练好的网络模型;具体实现过程为,使用预训练好的VGG-19神经网络提取图像的Gram矩阵,与两层256个节点的全连接神经网络连接组成训练网络,VGG在训练时不参与权重更新;对于输入的一张图像M,首先逐像素地减去图像均值mean,然后除以图像标准差std,得到预处理的图像: 将图像输入训练网络中,得到输出参数,使用平均绝对值误差损失函数计算损失: 训练网络直至损失趋于平稳不再下降,得到最终的网络模型; 步骤五,将测量的织物图像输入到训练好的网络模型,得到预测的参数组,使用逆过程框架优化参数;具体实现过程为,将捕获的图像M输入到步骤四训练好的网络模型中,得到预测参数组P,使用前向着色模型渲染得到图像;使用二维正态分布函数创建衰减蒙版,模拟手机闪光灯的光线衰减效果,将衰减蒙版与图像相乘得到图像;将图像M和分别输入到预训练的VGG网络,得到各自的Gram矩阵,使用平均绝对值误差损失函数计算得到风格损失: 将图像M和下采样到8×16分辨率,使用平均绝对值误差损失函数计算得到风格损失: 对预测得到的参数组P中高度场缩放因子,根据其均值和标准差计算得到: 损失函数包括风格损失、颜色损失和先验损失,将各项损失以不同的权重相加,和分别为对应损失的权重: 对于经纱纬纱的重复次数、高度场噪声因子和颜色噪声因子,优化策略为每进行5次优化进行一次随机扰动,经纱纬纱的重复次数在一百次优化以内增加或减少10,100-150次优化时增加或减少5,150次优化以后增加或减少2;高度场噪声因子和颜色噪声因子每次随机扰动时增加或减少1;优化迭代200次以后,得到最终的优化参数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京理工大学,其通讯地址为:210094 江苏省南京市孝陵卫200号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励