西北工业大学万开方获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉西北工业大学申请的专利一种混合三类经验的MADDPG多智能体运动控制方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120354876B 。
龙图腾网通过国家知识产权局官网在2026-01-06发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510429690.0,技术领域涉及:G06N3/006;该发明授权一种混合三类经验的MADDPG多智能体运动控制方法是由万开方;黄玢艳;吴艺博;郭子正;王歆浩然;李波设计研发完成,并于2025-04-07向国家知识产权局提交的专利申请。
本一种混合三类经验的MADDPG多智能体运动控制方法在说明书摘要公布了:本发明提出了一种混合三类经验的MADDPG多智能体运动控制方法,属于多智能体深度强化学习领域。MADDPG算法在专家经验的基础上引入劣质经验和优秀经验;劣质经验由反例模块生成,优秀经验由事后经验回放模块生成;通过融合专家经验、劣质经验和优秀经验构建三类经验混合机制,从而提高MADDPG算法的训练效率和稳定性;提升训练样本的多样性和质量,增强多智能体系统在复杂动态环境中的稳定性和决策能力;通过集成反例模块生成劣质经验,能在不确定环境中执行高效且可靠的运动控制,显著提高了多智能体系统的适应性和鲁棒性。
本发明授权一种混合三类经验的MADDPG多智能体运动控制方法在权利要求书中公布了:1.一种混合三类经验的MADDPG多智能体运动控制方法,其特征在于,所述控制方法的技术方案包括以下步骤: 步骤1:设定智能体的环境模型和智能体运动模型; 所述环境模型设定如下: 多智能体系统中的每个智能体为圆形体,智能体的半径为ri;多智能体系统的外界环境中包含一系列动态障碍物,智能体在飞行过程中需避开半径为robs的圆形障碍物以安全抵达目标位置;智能体与障碍物间的碰撞距离Dio=ri+robs;当智能体与障碍物的欧几里得距离d满足d≤Dio时,表示智能体已经发生碰撞; 当障碍物处于运动状态时,则障碍物运动模型与智能体运动模型一致; 步骤2:构建多智能体联合状态模型; 步骤3:构建MADDPG算法的Actor-Critic网络,并初始化Actor-Critic网络的参数与经验池; 步骤4:判定智能体选择动作的方式; 步骤5:智能体状态更新; 步骤6:使用HER算法生成优秀经验,使用反例模块生成劣质经验; 所述使用HER算法生成优秀经验如下: 当智能体未能完成目标时,将实际达到的状态重新定义为新目标,使得原本被视为失败的经验轨迹依然能为策略学习提供经验;在每一个训练周期中,智能体从初始状态s1开始执行策略Π,根据当前策略采样轨迹并将t时刻的策略采样轨迹以st,At,rt,st+1,g的格式存储在经验池D中;当智能体未能完成目标g时,HER算法从当前轨迹中随机选择状态st'作为替代目标g',并根据g'重新计算奖励rt',形成新的采样轨迹{st',At,rt',st+1,g'};将新的采样轨迹存储在优秀经验池D'中; 所述反例模块采用两种方式生成劣质经验: 一种方式是从智能体的碰撞或失败行为中直接提取劣质经验:一旦检测到碰撞或失败行为,立即将轨迹的最终状态作为劣质经验存储到劣质经验池D”中; 另一种方式是对于历史优秀经验的反向操作生成劣质经验;在轨迹采样的过程中,监控智能体的行为是否出现碰撞或失败行为:从优秀经验池D'中随机采样一些t时刻的优质经验st,At,rt,st+1,g,通过反向调整轨迹的st和At生成劣质经验;计算反向生成的snew+1和rnew,并将生成的劣质经验snew,Anew,rnew,snew+1存入劣质经验池D”中;反例模块为智能体的策略学习提供更多样化的训练数据,进一步提升算法的鲁棒性和适应性; 步骤7:判断多智能体是否进入训练阶段; 步骤8:设定采样策略与经验回放。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西北工业大学,其通讯地址为:710072 陕西省西安市友谊西路127号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励