华南理工大学张鼎华获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华南理工大学申请的专利基于强化学习的邻避事件应对策略生成方法、装置及介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119204666B 。
龙图腾网通过国家知识产权局官网在2025-12-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411232222.6,技术领域涉及:G06Q10/0635;该发明授权基于强化学习的邻避事件应对策略生成方法、装置及介质是由张鼎华;汤培新;郎旭涵设计研发完成,并于2024-09-04向国家知识产权局提交的专利申请。
本基于强化学习的邻避事件应对策略生成方法、装置及介质在说明书摘要公布了:本发明公开了一种基于强化学习的邻避事件应对策略生成方法、装置及介质,该方法包括:根据邻避事件的场景,设定参数并构建强化学习模型;获取初始状态,采用Q‑Learning算法对所述强化学习模型进行强化学习,以奖励最大为目标,迭代确定最优策略。该装置包括:设置模块和仿真模块。该介质包括存储有上述基于强化学习的邻避事件应对策略生成方法的计算机程序。通过使用本发明,解决了传统的风险危机分析方法缺少普适性和动态不确定性的问题,输出最优行为策略能够有效化解邻避事件引起的不稳定风险。本发明可广泛应用于策略自生成领域。
本发明授权基于强化学习的邻避事件应对策略生成方法、装置及介质在权利要求书中公布了:1.基于强化学习的邻避事件应对策略生成方法,其特征在于,包括以下步骤: 根据邻避事件的场景,设定参数并构建强化学习模型; 获取初始状态,采用Q-Learning算法对所述强化学习模型进行强化学习,以奖励最大为目标,迭代确定最优策略; 所述获取初始状态,采用Q-Learning算法对所述强化学习模型进行强化学习,以奖励最大为目标,迭代确定最优策略这一步骤,其具体包括: 初始化Q-Learning算法中的每个Q值; 主体在初始状态下以第一预设探索率从Q表中筛选使Q值最大的动作,并以第二预设探索率随机探索其他动作,得到动作样本序列,根据预设的迭代更新模型更新Q值; 判断主体是否达到预设的目标状态; 若否,再次采用贪婪探索搜索得到更新的动作样本序列,根据所述迭代更新模型更新Q值,重新判断主体是否达到所述目标状态,直至主体达到预设的目标状态; 若是,所述Q-Learning算法回到初始状态,重新探索,得到更新的动作样本序列,并根据所述迭代更新模型更新Q值; 判断预设的折扣奖励函数是否收敛; 若否,重新采用贪婪探索搜索得到更新的动作样本序列,根据所述迭代更新模型更新Q值,重新判断所述折扣奖励函数是否收敛,直至所述折扣奖励函数收敛; 若是,根据预设的最优策略输出模型输出最优策略; 所述折扣奖励函数表示如下: 其中,Q*s,a指在状态s下采取动作a获得的最优折扣奖励值的和,rs,a在状态s下采取动作a获得的奖励,Ts,a,st表示从t时刻开始一个时间段内所有状态和动作的总和,Q*st,at为状态st下采用动作at获得的折扣奖励值的和,st为t时刻的状态,at为t时刻采取的动作,γ为折扣因子。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华南理工大学,其通讯地址为:510000 广东省广州市天河区五山路;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励