Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京邮电大学程祥获国家专利权

北京邮电大学程祥获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京邮电大学申请的专利一种面向异质性数据的差分隐私联邦学习方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120806194B

龙图腾网通过国家知识产权局官网在2026-03-27发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510874485.5,技术领域涉及:G06N20/00;该发明授权一种面向异质性数据的差分隐私联邦学习方法及系统是由程祥;潘佳安;王玉龙;苏森设计研发完成,并于2025-06-27向国家知识产权局提交的专利申请。

一种面向异质性数据的差分隐私联邦学习方法及系统在说明书摘要公布了:本发明提供一种面向异质性数据的差分隐私联邦学习方法及系统。所述方法包括:客户端接收服务端下发的本地模型参数,计算信息量并进行分层归一化获得归一化信息量,并与预设超参数构建掩码矩阵,与本地模型参数计算元素积以筛选低信息量的参数集;引入正则化项抑制参数集中参数的更新幅度以构建损失函数,对本地模型参数进行迭代更新获得中间本地模型参数,分解为低维向量以及冗余向量,裁剪并添加噪声后还原得到目标模型参数,上传至联邦模型以按照设定聚合权重聚合;服务端根据本地判别器识别全局数据,本地数据集分布越接近全局数据分布的客户端分配越高的聚合权重;本方法在满足严格差分隐私证明的前提下,在异质性数据中提高模型预测精度。

本发明授权一种面向异质性数据的差分隐私联邦学习方法及系统在权利要求书中公布了:1.一种面向异质性数据的差分隐私联邦学习方法,其特征在于,该方法包括以下步骤: 接收服务端下发的本地模型参数,计算用于表示所述本地模型参数与客户端本地数据集之间相关性的信息量,并按照所述本地模型参数所在的层次进行分层归一化处理获得归一化信息量; 根据所述归一化信息量与预设超参数的大小对比关系构建掩码矩阵,计算所述掩码矩阵和所述本地模型参数的元素积,以筛选所述归一化信息量低于所述预设超参数的本地模型参数并构建为参数集; 引入正则化项抑制所述参数集中参数的更新幅度以构建损失函数,对所述本地模型参数进行迭代更新直至达到预设迭代终止条件后获得中间本地模型参数;将所述中间本地模型参数在特征子空间上进行投影以分解为低维向量以及冗余向量,对所述低维向量和所述冗余向量进行裁剪并添加高斯噪声后还原至原始维度得到目标模型参数;所述特征子空间是所述服务端利用预训练的生成器生成的全局数据集计算联邦模型的梯度矩阵后,通过乘幂法提取前设定数量个主成分特征向量得到的; 将所述目标模型参数上传至服务端的联邦模型以按照设定聚合权重聚合;其中,设定聚合权重的过程包括:所述服务端收集各客户端的所述目标模型参数和预训练的用于识别客户端本地数据的本地判别器的参数,加载所述本地判别器的参数识别所述全局数据,根据识别结果为本地数据集分布越接近全局数据分布的所述客户端分配越高的聚合权重; 所述方法还包括: 将所述全局数据输入本地模型后输出多个表示数据所属类别的客户端概率向量;对多个客户端概率向量进行加权求和获得客户端加权概率向量; 将所述全局数据输入所述联邦模型后输出一个表示数据所属类别的联邦模型概率向量; 根据所述客户端加权概率向量和所述联邦模型概率向量构建联邦模型损失函数,对所述联邦模型参数进行迭代更新;其中,所述联邦模型损失函数的表达式为: ; ; ; 其中,表示所述客户端加权概率向量,表示将第个全局数据输入参数为的联邦模型后输出的所述联邦模型概率向量,表示第个全局数据输入参数为的本地模型后输出的客户端概率向量,表示聚合权重,表示第个全局数据通过本地判别器计算属于客户端本地数据集的概率,表示客户端总数。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京邮电大学,其通讯地址为:100876 北京市海淀区西土城路10号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。