齐鲁工业大学(山东省科学院)杨明获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉齐鲁工业大学(山东省科学院)申请的专利基于离群点检测与深度生成模型的电力系统数据生成方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN121167313B 。
龙图腾网通过国家知识产权局官网在2026-02-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511706418.9,技术领域涉及:G06F18/214;该发明授权基于离群点检测与深度生成模型的电力系统数据生成方法是由杨明;卢玮钰;吴晓明;焦绪国;王鑫;贺云鹏;刘臣胜;穆超;陈振娅设计研发完成,并于2025-11-20向国家知识产权局提交的专利申请。
本基于离群点检测与深度生成模型的电力系统数据生成方法在说明书摘要公布了:本发明涉及人工智能技术领域,尤其是提供了一种基于离群点检测与深度生成模型的电力系统数据生成方法。该方法包括收集电力系统的原始运行数据,对原始运行数据进行离群点检测并剔除;对离群点检测并剔除后,用三次样条插值和滑动平均对缺失和剔除的数据进行补全;根据构建的基于CAD‑TCN‑AdaptiveSkip‑LSTM的对抗自编码器模型,对补全后的数据进行拟合,捕捉数据的局部时序和长程依赖;采用拟合完成的模型生成新的电力系统数据样本,以扩充数据量,该方法提升了电力系统数据的完整性。
本发明授权基于离群点检测与深度生成模型的电力系统数据生成方法在权利要求书中公布了:1.一种基于离群点检测与深度生成模型的电力系统数据生成方法,其特征在于,所述方法包括: 步骤1、收集电力系统的原始运行数据,对原始运行数据进行离群点检测并剔除; 步骤2、对离群点检测并剔除后,用三次样条插值和滑动平均对缺失和剔除的数据进行补全; 步骤3、根据构建的基于CAD-TCN-AdaptiveSkip-LSTM的对抗自编码器模型,对补全后的数据进行拟合,捕捉数据的局部时序和长程依赖; 步骤4、采用拟合完成的模型生成新的电力系统数据样本,以扩充数据量; 所述步骤3包括: 通过融合基于元胞自动机驱动的时序卷积网络CAD-TCN和自适应的跳跃长短期记忆网络AdaptiveSkip-LSTM结构对复杂高维时序数据进行建模与生成;对抗自编码器AAE作为核心框架,在潜在空间中引入对抗正则化,以使编码器输出与预设高斯分布一致;在保证重构精度的同时增强连续性与可采样性,从而通过标准正态采样,生成与真实数据特性匹配的样本;对数据进行归一化和滑动窗口采样处理之后输入至编码器; CAD-TCN模块作为编码器中的核心特征提取器之一,用于对高维时序数据进行层次化、多尺度且具有动态交互能力的表示学习;首先,CAD-TCN模块以因果膨胀卷积作为初始变换:对时间步t的输入施加一维因果扩张卷积得到初始特征向量: ; 其中,d为膨胀率,其取值为8,4,2,1;K为卷积核大小,Wk为卷积权重;卷积后紧随批量归一化BN与激活函数LeakyReLU,以稳定训练并增加非线性表达; 在初始卷积特征之上,CAD-TCN模块采用可微的元胞自动机演化单元以实现局部邻域间的动态交互建模;将每个特征视为一个元胞的状态向量,定义一个轻量化的规则网络,规则网络为多层感知机MLP,用于从邻域产生状态更新量: ; 为了并行计算与边界处理,输入在时间维上做对称填充,按批次构造邻域索引,并用高效张量操作提取邻域信息后展平送入规则网络;元胞演化将邻域交互从固定卷积核的线性混合变为可学习的非线性更新,允许模型在局部范围内自适应决定信息沿时间传播的方式;元胞演化以迭代方式执行,每一步按小步长更新以保证稳定性,其表达式为: ; 其中,α2为更新步长,k为演化迭代次数; 在每个CAD-TCN模块中保留残差连接与投影映射,CAD-TCN模块最终输出以演化后的特征与线性映射的输入相加的形式表达: ; 其中,为1×1卷积或线性变换用于维度对齐; CAD-TCN模块将膨胀卷积的多尺度感受野与基于邻域的可学习元胞演化结合起来,用于提高对时序模式的建模能力;并在AAE的生成框架中为学习到的潜在分布提供高阶特征;将CAD-TCN模块提取的高阶特征传递到AdaptiveSkip-LSTM模块用于进一步整合跨步长依赖并自适应保留关键时间步的信息,联合作用于时序数据的生成与扩展; AdaptiveSkip-LSTM模块作为编码器的另一重要组成模块,用于负责关键时刻的建模,在保证效率的同时突出局部时间片的重要信息;AdaptiveSkip-LSTM模块通过门控机制,根据当前输入与历史状态的差异动态决定隐藏状态的更新,其包括: 设输入序列为xt,上一时刻隐藏状态为ht-1,记忆状态为ct-1,则门函数gt的表达式为: ; 其中,为sigmoid函数,Wg与bg为门控的权重参数与偏置项,输出的门控值表示当前时间步的更新强度或更新频率;当gt接近1时,表示当前时间步信息重要,模型将更新隐藏与记忆状态;当gt接近0时,模型倾向跳过更新,继承上一时刻状态;若gt处于中间值,则执行部分更新,即软更新,通过加权融合新旧状态实现平滑过渡: ; ; 其中,与为标准LSTM单元在当前时刻的更新结果; 在整个编码器设计中,输入的电力系统时序数据首先经过四层CAD-TCN模块,每个模块的膨胀率d分别为1、2、4、8,卷积核数量分别为32、64、128、256,以提取局部时序动态;CAD-TCN模块在因果膨胀卷积捕获多尺度时间依赖的基础上,使用可学习的元胞自动机驱动机制,将每个时间步的特征视为一个元胞;随后通过AdaptiveSkip-LSTM模块整合依赖信息,建模关键的全局时序结构;最终利用全连接层将高维时序特征映射到潜在空间表示z;判别器以编码器输出的潜在变量为输入,经过三层包含128个神经元的全连接层与激活函数LeakyReLU,最终通过一层单神经元输出层获得判别值,用以判断输入样本的真实性;在AAE的拟合过程中,为了保证编码器输出的潜在变量z能够逼近预设的真实分布,将判别器引入以实现潜在空间的分布匹配;判别器的输入包括两个潜在向量:一个为编码器对原始运行数据编码所得的潜在表示,服从模型学习得到的后验分布Qz;另一个则为从标准正态分布中采样得到的真实样本;判别器的目标是通过学习将来自真实分布Pz的样本与来自编码器输出Qz的样本区分开来;判别器优化目标基于Wasserstein距离: ; 其中,D表示判别器的输出; 与此同时,编码器的优化目标则是使得其输出的潜在向量分布Qz与真实分布Pz趋于一致,达到对抗效果;编码器的损失函数为: ; 为进一步验证编码器输出潜在空间分布与预设标准正态分布的一致性,引入最大均值差异MMD对两者的分布差异进行度量: ; 其中,z和分别为来自真实分布和编码器分布的样本,为核函数; 随后,解码器在整体结构上与编码器保持镜像对称关系,其输入为潜在向量z,首先利用向量重复RepeatVector操作和AdaptiveSkip-LSTM层恢复时序依赖性,随后通过四层膨胀率逐步减小以及卷积核逐渐减少的CAD-TCN模块,以实现多尺度特征的逐层重建,膨胀率d设计为8、4、2、1,卷积核数量为256、128、64、32;最终,利用逐时间步的残差连接生成输出序列,从而完成由潜在空间到原始数据空间的映射过程;解码器输出的重构样本与原始输入样本之间采用均方误差MSE作为重构损失函数进行度量: ; 其中,表示原始输入样本,表示解码器重构的样本; 为进一步提升数据的连续性和真实性,引入时序一致性损失以约束生成数据的动态变化特征: ; 总损失由以上3项构成:;重构损失用于保证生成序列在样本空间中的点值重构精度;最大均值差异损失用于使编码出的z接近预设先验;时序一致性损失用于保证生成样本的动态演化特征与真实序列一致; 在训练过程中,采用自适应机制的多损失函数权重动态调整,首先,在训练的每一个批次t中计算出三类核心损失值,对各类损失值进行指数滑动平均处理: ; 其中,表示第i项损失在第t次的平滑值,α3为平滑系数,取值范围在[0.9,0.99],用于平衡历史趋势与当前值;为原始损失值; 在得到平滑后的损失值之后,计算各损失的倒数作为对应的初始权重: ; 其中,为第i项损失在批次t的原始权重,为微小常数,用于防止分母为零,取值为1×10-8; 对所有初始权重进行归一化处理: ; 其中,表示第i项损失在批次t的最终权重,分母为所有初始权重的总和;经过归一化后,所有损失权重之和始终等于1,以使得总损失保持数值尺度上的一致性;最终的训练目标函数由各类损失函数按自适应权重加权求和得到: ; 解码器的结构设计与编码器保持对称性,以确保将潜在特征还原至原始时序空间;解码器首先接收编码器输出的潜在向量,并通过重复向量RepeatVector将其扩展至预设的时间步长度,以便形成时序化输入;在此基础上,引入和编码器对称的AdaptiveSkip-LSTM和CAD-TCN模块逐层恢复不同尺度的时序依赖与特征维度,并最终通过时序分布层TimeDistributed将每个时间步的特征映射至原始输入维度,输出完整的重构序列。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人齐鲁工业大学(山东省科学院),其通讯地址为:250353 山东省济南市长清区西部新城大学科技园;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励