Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中国科学院电工研究所肖浩获国家专利权

中国科学院电工研究所肖浩获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中国科学院电工研究所申请的专利一种配电网与微电网集群协同电压控制方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120810640B

龙图腾网通过国家知识产权局官网在2025-11-18发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511255765.4,技术领域涉及:H02J3/12;该发明授权一种配电网与微电网集群协同电压控制方法是由肖浩;姬晨昱;裴玮;张国驹;浦骁威;杨艳红;马腾飞设计研发完成,并于2025-09-04向国家知识产权局提交的专利申请。

一种配电网与微电网集群协同电压控制方法在说明书摘要公布了:本发明提供一种配电网与微电网集群协同电压控制方法,属于电力系统运行控制技术领域,包括:以配电网、微电网电压波动最小化与经济性最优为目标,搭建配电网与微电网集群协同电压控制的数学模型;将构建的配电网与微电网集群协同电压控制数学模型等效转换为强化学习的马尔科夫决策过程;将多智能体强化学习算法与进化算法结合,并引入情景记忆机制,基于改进后的多智能体强化学习算法对转换后的马尔科夫决策过程求解,实现配电网与微电网集群之间的协同电压控制和策略在线学习。本发明有效提升了样本的利用效率和算法的全局稳定性。

本发明授权一种配电网与微电网集群协同电压控制方法在权利要求书中公布了:1.一种配电网与微电网集群协同电压控制方法,其特征在于,包括如下步骤: 步骤1、以配电网电压波动最小且经济性最优、微电网经济性最优为目标,建立配电网与微电网集群协同电压控制的数学模型; 各微电网中接入储能装置,以缓解可再生能源的波动性问题,并起到削峰填谷的作用的动态过程表示为: 3 其中,表示储能装置在t时刻的荷电状态,表示储能装置在t-1时刻的荷电状态,[0,1]分别表示储能装置的充电效率系数、放电效率系数,表示储能装置在t时刻的充电功率,表示储能装置的储能容量,表示储能装置在t时刻的放电功率; 微电网的运行控制还需满足如下的约束条件: 储能装置的荷电状态约束: 4 其中,表示第p个微电网中储能装置在t小时的荷电状态,表示第p个微电网中储能装置的最小荷电状态,表示第p个微电网中储能装置的最大荷电状态;通过对初始荷电状态与最终荷电状态的约束保证了储能装置的备用容量; 微型燃气轮机与微电网出力上下限约束为: 5 其中,代表燃气轮机在t时刻最大的发电功率;表示第p个微电网的上网功率,表示第p个微电网允许的最小上网功率,表示第p个微电网允许的最大上网功率; 微电网功率平衡约束: 6 其中,代表分布式能源提供的能量,代表微电网与配电网交易的电能;表示在t时刻微电网内部负荷用电功率,表示储能装置在t时刻的充电功率; 步骤2、把配电网和每个微电网视为独立智能体,基于步骤1构建的配电网与微电网集群协同电压控制的数学模型,等效转换构建用于各智能体控制策略强化学习训练的状态空间、动作空间和奖励函数,形成训练环境和各智能体强化学习模型; 配电网智能体的控制动作变量如公式12所示: 12 其中,表示配电网向微电网售电时的电价; 各微电网的动作空间为三维的离散空间,包括对微电网内部的各机组出力控制以及售电价格控制;微电网的控制动作如式13所示: 13 其中,为燃气轮机发电功率控制信号,表示微电网向配电网售电时的电价,则代表分布式储能的充放电信号; 奖励函数的表达式为: 17 其中,为第q个微电网售电的收益,为第q个微电网购电的成本; 步骤3、基于步骤2构建的训练环境,将多智能体强化学习算法与进化算法融合并引入情景记忆机制,对步骤2中的各智能体强化学习模型离线训练求解,并在线实时调用,生成协同电压控制策略,实现配电网、微电网电压波动最小化与经济性最优; 计算进化算法与多智能体强化学习算法的损失函数并更新Q函数: 20 21 其中,表示进化算法的损失函数,表示多智能体强化学习的损失函数,表示状态在分布上的期望,代表所有多智能体强化学习算法团队和所有进化算法团队收集的非策略经验,与分别表示第i个智能体的Q函数参数,代表进化算法中的第j个团队,分别表示进化算法团队生成的策略、多智能体强化学习算法生成的策略; 对进化算法种群执行交叉变异,同时利用情景记忆机制中记忆目标正则化修正多智能体强化学习算法中的Q函数,快速利用探索到的成功经验,时序查分损失计算中添加的情景记忆目标如式22-式23所示: 22 23 综合考虑当前步时序查分损失大小与当前策略与历史最优策略样本的偏差度后,得到的改进的多智能体强化学习算法的综合损失函数如式24所示: 24 其中,是Q函数参数,表示状态-动作价值估计函数,是平衡情景记忆目标参考效应的权重项;表示当前步时序查分损失大小,表示由情景记忆目标作为参考所求得的损失函数,代表智能体在第i轮训练的状态下采取动作at所能得到的历史最佳奖励值,E代表智能体所经历的训练轮次,表示智能体在第y轮训练的状态下采取动作at所能得到的回报; 将优化后的多智能体强化学习算法策略与进化算法种群共享,并根据式25更新共享策略编码器: 25 其中,表示更新策略,代表第i个智能体在t时刻的局部观测量,act·表示激活函数,矩阵表示每个团队的线性策略,代表非线性共享观测编码器,表示维的实数向量,表示第i个智能体的动作维度,表示矩阵的d+1行,表示矩阵的低1行到第d行。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国科学院电工研究所,其通讯地址为:100190 北京市海淀区中关村北二条6号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。