Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京理工大学韩锐获国家专利权

北京理工大学韩锐获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京理工大学申请的专利一种边缘侧联邦持续学习中任务粒度模型聚合方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119578584B

龙图腾网通过国家知识产权局官网在2025-11-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411504309.4,技术领域涉及:G06N20/00;该发明授权一种边缘侧联邦持续学习中任务粒度模型聚合方法是由韩锐;罗潘亚欣;吴晓宁;侯海婷;刘驰设计研发完成,并于2024-10-25向国家知识产权局提交的专利申请。

一种边缘侧联邦持续学习中任务粒度模型聚合方法在说明书摘要公布了:本发明涉及一种面向边缘侧异构任务序列的任务自适应和联邦学习系统,包含:步骤1,知识提取模块将每个客户端地本地模型提炼成一个紧凑地知识,形成一个知识蒸馏模型,并且发送至服务器;步骤2,服务器使用异构模型选择模块搜索任务记忆宫殿,任务记忆宫殿包括任务知识存储、搜索相似任务知识存储、增加新的任务知识,为每个客户端找到一部分最相似的任务知识,等步骤。本发明所述学习系统的优越效果在于:面向于真实边缘环境中各个边缘设备任务差异大的问题,在这样的背景中,本发明从任务相似的角度出发,通过关键的数据结构以及四个模块保证相似的任务得以聚合,在保证计算开销以及通信开销较低的情况下实现本地模型训练的精度提升。

本发明授权一种边缘侧联邦持续学习中任务粒度模型聚合方法在权利要求书中公布了:1.一种边缘侧联邦持续学习中任务粒度模型聚合方法,包含以下步骤: 步骤1,知识提取模块将每个客户端地本地模型提炼成一个紧凑地知识,形成一个知识蒸馏模型,并且发送至服务器; 步骤2,服务器使用异构模型选择模块搜索任务记忆宫殿,任务记忆宫殿包括任务知识存储、搜索相似任务知识存储、增加新的任务知识,为每个客户端找到一部分最相似的任务知识,任务记忆宫殿包括任务知识存储、搜索相似任务知识存储、增加新的任务知识,具体为,紧凑的任务知识存储:任务记忆宫殿使用模型修剪技术,将每个任务对应的模型权重转换为其知识,知识对应于具有最高值的权重的一部分,以保留最重要的信息并减少内存占用; 快速准确的搜索相似任务知识:任务记忆宫殿采用R-tree将相似的任务知识组织到同一节点,并将所有任务知识分层组织,即使客户端和任务数量很大,也能快速搜索到相似的任务知识; 准确快速的增加新的任务知识:任务记忆宫殿支持通过快速树节点添加删除来增加任务知识更新,对于每一次添加新的任务知识: 首先,将一个任务知识转化为低纬度的任务索引;接着,鉴于R-tree在低纬度的空间中的工作效率更高,使用降维技术进行进一步压缩;最后,从R-tree中搜索与当前加入的任务最相似的相关知识,在搜索的过程中,使用多头交叉熵损失来评估两个任务知识的关系,如果两个任务知识的相似度超过了阈值,那么就将两个任务知识合并到同一个节点;否则,将在R-tree中插入新的节点; 步骤3,模型聚合模块使用最优传输对每个客户端的蒸馏模型和其选择的部分最相似的任务知识进行顺序聚合,确保在每个位置聚合的参数具有相似的功能,以最大限度的获取有益信息,提高蒸馏模型精度; 步骤4,服务器将各个客户端更新后的蒸馏模型返回给客户端,各个客户端将对参与聚合前后的蒸馏模型进行评估,并选择精度更高的蒸馏模型传入到任务知识集成模块,任务知识集成模块通过知识蒸馏的方法将其他客户端的任务信息传输给本地训练模型,以提高模型的准确率; 步骤5,各个客户端的知识提取模块根据当前模型保留其中5%-15%权值最大的模型参数,并将其余参数置0,进行模型调整,将调整后的模型参数存储到知识存储模块作为当前任务的任务知识。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。