Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中国科学技术大学张四海获国家专利权

中国科学技术大学张四海获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中国科学技术大学申请的专利一种基于张量神经网络的低功耗联邦学习方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117077803B

龙图腾网通过国家知识产权局官网在2026-04-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310767823.6,技术领域涉及:G06N20/00;该发明授权一种基于张量神经网络的低功耗联邦学习方法是由张四海;陈志坤;潘佳琪设计研发完成,并于2023-06-27向国家知识产权局提交的专利申请。

一种基于张量神经网络的低功耗联邦学习方法在说明书摘要公布了:本发明公开了一种基于张量神经网络的低功耗联邦学习方法,中心服务器基于张量分解方法将原始深度神经网络DNN参数表示成张量神经网络TNN的形式;各个用户从中心服务器下载全局TNN模型,利用自身训练数据和梯度下降优化算子SGD更新张量神经网络TNN模型参数,并将各自损失值和更新后的私有头部参数发送给中心服务器;中心服务器对设定的共享基层参数进行更新,并将更新后的共享基层参数下发给各个用户;各个用户利用更新后的共享基层参数继续进行迭代训练,直至TNN模型收敛。上述方法能够有效减少用户计算量,从而降低用户计算功耗以及传输功耗,进而有效降低联邦学习FL的功耗。

本发明授权一种基于张量神经网络的低功耗联邦学习方法在权利要求书中公布了:1.一种基于张量神经网络的低功耗联邦学习方法,其特征在于,所述方法包括: 步骤1、首先中心服务器基于张量分解方法将原始深度神经网络DNN参数表示成张量神经网络TNN的形式,将张量神经网络TNN用于初始化各个用户的本地模型;其中,设定张量神经网络TNN的最后两层参数为用户的私有头部参数,其余前层参数为用户的共享基层参数; 步骤2、各个用户从中心服务器下载全局TNN模型,利用自身训练数据和梯度下降优化算子SGD更新张量神经网络TNN模型参数,并将各自损失值和更新后的私有头部参数发送给中心服务器; 在步骤2中,在TNN模型参数的更新过程中,每个用户的TNN模型参数分为两个部分,其中私有头部参数根据公式2进行更新: 此处,表示私有头部参数中的第k个张量核;η表示学习步长;为第i个用户的本地损失函数值,表示模型的预测输出与样本标签的差距; 更新完成后,每个用户将和更新后的私有头部参数上传给中心服务器; 步骤3、中心服务器根据收到的各个用户的损失值和更新后的私有头部参数对设定的共享基层参数进行更新,并将更新后的共享基层参数下发给各个用户; 在步骤3中,所述中心服务器根据收到的各个用户的损失函数值和更新后的私有头部参数对设定的共享基层参数按照如下公式3进行更新: 此处,表示共享基层参数中的第k个张量核;η表示学习步长;表示共享损失值,由N个用户的损失值求均值得到; 更新完成后,服务器将更新后的共享基层参数下发给各个用户; 步骤4、各个用户利用更新后的共享基层参数继续进行迭代训练,直至TNN模型收敛。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国科学技术大学,其通讯地址为:230026 安徽省合肥市包河区金寨路96号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。