南京理工大学黄婵颖获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京理工大学申请的专利基于StyleGAN编码器和肤色匹配生成对抗网络的人脸匿名方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119577823B 。
龙图腾网通过国家知识产权局官网在2025-12-12发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411523538.0,技术领域涉及:G06F21/62;该发明授权基于StyleGAN编码器和肤色匹配生成对抗网络的人脸匿名方法是由黄婵颖;郑新龙;颜克冬;李千目设计研发完成,并于2024-10-30向国家知识产权局提交的专利申请。
本基于StyleGAN编码器和肤色匹配生成对抗网络的人脸匿名方法在说明书摘要公布了:本发明公开了一种基于StyleGAN编码器和肤色匹配生成对抗网络的人脸匿名方法,该方法为:使用预训练好的人脸语义分割模型BiSeNet将原始人脸图像转化为语义分割图;利用翻译编码器提取语义分割图的姿态潜在表征,利用身份编码器提取参考人脸图像的身份潜在表征信息;融合姿态潜在表征信息和身份潜在表征信息,得到一个保持原始人脸姿态又具有区别于原始人脸身份的新潜在表征,通过StyleGAN生成器将注入的新潜在表征转化为初步匿名人脸图像;利用肤色匹配生成对抗网络将生成的匿名人脸图像以及原始图像的背景进行融合,实现最终的人脸匿名。本发明提高了匿名图片的匿名性、人脸检测性能、图像生成质量、多样性、面部表情识别性能和图片完整性。
本发明授权基于StyleGAN编码器和肤色匹配生成对抗网络的人脸匿名方法在权利要求书中公布了:1.一种基于StyleGAN编码器和肤色匹配生成对抗网络的人脸匿名方法,其特征在于,包括如下步骤: 步骤1、使用预训练好的人脸语义分割模型BiSeNet将原始人脸图像转化为语义分割图; 步骤2、利用翻译编码器提取语义分割图的姿态潜在表征; 步骤3、利用身份编码器提取参考人脸图像的身份潜在表征信息; 步骤4、融合姿态潜在表征信息和身份潜在表征信息,得到一个保持原始人脸姿态又具有区别于原始人脸身份的新潜在表征; 步骤5、通过StyleGAN生成器,将注入的新潜在表征转化为初步匿名人脸图像; 步骤6、利用肤色匹配生成对抗网络SCMGAN将生成的匿名人脸图像以及原始图像的背景进行融合,实现最终的人脸匿名,具体如下: 步骤6.1、利用步骤1的方法提取训练数据的人脸面部的语义分割图; 步骤6.2、利用高斯模糊方法获取训练数据集中原始人脸图像的模糊版本; 步骤6.3、改变原始人脸图像人脸部分的对比度、亮度、饱和度和色调,得到与背景不协调的待匹配人脸图像; 步骤6.4、利用训练SCMGAN的总损失函数训练SCMGAN,训练过程与编码器的训练解耦: ; 其中表示对抗损失,表示零中心梯度惩罚损失,表示像素级损失,表示基于VGG的感知损失,和表示权重常数; 步骤6.5、将步骤6.1~步骤6.3中的图像输入到训练好的SCMGAN中,得到完成肤色匹配的人脸图像; 步骤6.4中训练SCMGAN的总损失函数,计算方法具体如下: SCMGAN有三个输入:1匿名人脸图像与原始图像背景的拼接图;2原始人脸图像面部的语义分割图;3模糊处理后的原始人脸图像,训练SCMGAN可以通过肤色匹配代理任务完成; 首先计算对抗损失,具体如下: ; ; ; 其中为SCMGAN的生成器,为鉴别器,为真实数据的标签,为假数据的标签,为真实数据,为生成器的输入; 然后使用零中心梯度惩罚损失来稳定模型训练: ; 并使用像素级的损失来匹配原始人脸和生成人脸的颜色: ; 其中表示生成器的输入; 最后,使用基于VGG的感知损失函数来确定目标和生成输出之间的特征差异,VGG损失定义如下: ; 其中对应每一层特征的权值,,,分别对应图像的通道、宽度和高度维度,表示VGG-19模型; 综上所述,训练SCMGAN所需的总损失函数为: ; 其中,是权重常数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京理工大学,其通讯地址为:210094 江苏省南京市玄武区孝陵卫200号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励