北京理工大学;北京理工大学前沿技术研究院朱超获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京理工大学;北京理工大学前沿技术研究院申请的专利基于差分隐私的联邦分层学习方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118504659B 。
龙图腾网通过国家知识产权局官网在2025-12-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410634346.0,技术领域涉及:G06F21/62;该发明授权基于差分隐私的联邦分层学习方法是由朱超;郝新丽;周怡航;张若羿;康思远;李以伟设计研发完成,并于2024-05-21向国家知识产权局提交的专利申请。
本基于差分隐私的联邦分层学习方法在说明书摘要公布了:本发明属于机器学习技术领域,具体涉及基于差分隐私的联邦分层学习方法,所述学习方法采用以下步骤:S1:客户端k基于数据样本集合训练自己的本地模型;S2:采用DP的数学框架,为分布式数据处理系统的差分隐私保护提供准则;S3:对每个客户端进行分层DNN训练;S4:客户端使用DP机制在每轮训练一层后对参数进行扰动。本发明在通信资源和数据隐私保护方面优于现有方法。将LFL‑DP与差分隐私联邦学习FL‑DP在精度收敛方面进行了比较,结果证明了LFL‑DP在精度收敛方面优于FL‑dp的性能,并证明了分层方法在隐私保护FL场景中的鲁棒性和效率。
本发明授权基于差分隐私的联邦分层学习方法在权利要求书中公布了:1.基于差分隐私的联邦分层学习方法,其特征在于:包括通用的FL系统、服务器和集合个客户端,表示第个客户端的本地数据集,其中; 所述学习方法采用以下步骤: S1:客户端基于数据样本集合训练自己的本地模型; S2:采用DP的数学框架,为分布式数据处理系统的差分隐私保护提供准则; S3:对每个客户端进行分层DNN训练; 所述S3中,每个客户端可以逐层训练模型,而不是在每一轮通信中训练完整的DNN模型; DNN网络最初被划分为多个层或块,从训练一个层块开始,直到其参数收敛;对于训练层块,模型开发人员在其上附加一个新的分类器,以输出预测并计算训练损失;在收敛模型上再附加一个层块,只训练这个层块,而先前收敛的层块被冻结; S4:客户端使用DP机制在每轮训练一层后对参数进行扰动; 所述S4中,采用DP机制训练步骤如下: S51:模型初始化和配置:服务器负责全局模型初始化和配置; 服务器配置模型体系结构和参数,在每一轮中,服务器从所有客户端中选择一个子集参加这一轮的训练,并决定训练哪一层,然后将确定的训练层的初始参数和裁剪阈值发送到选定的客户端; S52:本地训练:客户端持有包含敏感信息的培训数据; 每个客户端使用本地数据,并行训练且只将训练层的参数上传到服务器,客户端在本地数据上计算层的梯度,并裁剪其参数,每个客户端根据高斯机制的差分隐私规则添加人工噪声,作为保护措施,保护敏感信息不受潜在攻击,本地训练完成后,所有参与的客户端将训练层的参数上传到上行通信通道的服务器; S53:模型聚合:服务器负责从每个客户端聚合层上传的参数; 聚合过程通常涉及这些参数的加权组合,然后对训练层的加权参数进行平均,生成一个更新的聚合层,该层反映了所有参与客户端的集体知识。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学;北京理工大学前沿技术研究院,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励