Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 南京邮电大学陈思光获国家专利权

南京邮电大学陈思光获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉南京邮电大学申请的专利一种面向联邦学习的振幅对齐个性化与鲁棒聚合方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117196059B

龙图腾网通过国家知识产权局官网在2026-01-06发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310785232.1,技术领域涉及:G06N20/00;该发明授权一种面向联邦学习的振幅对齐个性化与鲁棒聚合方法是由陈思光;蒋永琦设计研发完成,并于2023-06-29向国家知识产权局提交的专利申请。

一种面向联邦学习的振幅对齐个性化与鲁棒聚合方法在说明书摘要公布了:一种面向联邦学习的振幅对齐个性化与鲁棒聚合方法,提出了一种新颖的个性化联邦学习pFL技术,其中客户端将本地分类损失最小化的同时,对于与其他客户端共享的类别,客户端将该类数据的本地原型与全局原型对齐。该方法采用分层的训练方式实现更细粒度的个性化,并将局部原型转换到频域来防止源数据泄漏;其次,为了防止FL模型错误地分类某些测试样本,本发明设计了一种鲁棒聚合技术,以确保能够为其本地数据提供可靠预测的良性客户端在聚合过程中的权重远远大于恶意客户端。

本发明授权一种面向联邦学习的振幅对齐个性化与鲁棒聚合方法在权利要求书中公布了:1.一种面向联邦学习的振幅对齐个性化与鲁棒聚合方法,其特征在于:该方法包括以下步骤: 步骤1,客户端利用从服务器接收到的全局振幅和本地保留的相位执行反向快速傅立叶变换来获得全局原型; 步骤2,每个客户端训练本地模型,最小化本地交叉熵损失的同时,计算本地类原型,对于与其他客户端共享的类别,客户端将该类数据的本地原型与全局原型对齐,获取本地原型和全局原型之间的距离; 步骤3,在每一轮通信中,客户端连续记录本地交叉熵损失与反向交叉熵损失的差值;与此同时,对于客户端计算出的本地类原型,通过快速傅里叶变换将其转换为频率空间信号;相位分量保持本地,振幅分量与交叉熵损失与反向交叉熵损失的差值一起发送到服务器; 步骤4,服务器接收客户端发送的信息,基于客户端上传的交叉熵损失与反向交叉熵损失的差值,服务器分别评估每个客户端的标签质量和可信度,然后服务器根据这两个指标重新分配客户端权重; 所述步骤4包括以下步骤: 步骤4-1,服务器接收到客户端发送的差值与本地原型的振幅集合; 步骤4-2,服务器让Mk和Bk分别表示客户端被识别为恶意或良性的频率,计算方法如下: 其中α是阈值; 步骤4-3,然后利用Beta分布对可信度Pk的概率分布Uk进行建模: Uk:BetaMk,Bk 可信度Pk由Beta分布达到最大值时的坐标值决定;Mk和Bk的初始值均为1;因为Beta1,1均匀分布在0,1上,这意味着每个客户端开始时都可能是恶意客户端或良性客户端; 步骤4-4,差值考虑基于数据集中给出的标签的CE损失和FL模型预测的RCE损失;因此,表示预测标签与数据集中提供的标签之间分布接近度的差值;较小的表示较近的分布,而较大的表示较远的分布;更接近的分布意味着客户更诚实,伪造与本地数据相对应的标签的可能性低;此外,还受到模型学习效率的影响,模型学习效率由每一轮通信中的下降率来衡量;学习效率与标签质量成正比;综合考虑数据集质量和模型效率,标签质量表示为: 其中,t为当前通信轮次; 步骤4-5,在聚合阶段,服务器使用标签质量和可信度来重新分配每个客户的权重;在协同学习的过程中,客户从良性客户那里学到更多的知识,同时减少从标签质量差、可信度低的恶意客户学到的知识;保证了模型能在一定程度上对样本进行正确分类,实现了鲁棒的联邦协作;在t中赋予客户端k的权重为: 其中,η是附加项的系数; 步骤5,服务器根据重新分配的权重和上一轮的全局振幅,将客户端上传的本地振幅进行聚合,得到全局振幅,再将全局振幅发送给所有客户端让他们进入下一轮训练。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京邮电大学,其通讯地址为:210003 江苏省南京市鼓楼区新模范马路66号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。