Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中国海洋大学王向阳获国家专利权

中国海洋大学王向阳获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中国海洋大学申请的专利基于Petri网的离散制造系统韧性增强方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120338457B

龙图腾网通过国家知识产权局官网在2025-09-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510837861.3,技术领域涉及:G06Q10/0631;该发明授权基于Petri网的离散制造系统韧性增强方法及系统是由王向阳;王泓晖;刘贵杰;谢迎春;田晓洁;张浩;解文豪设计研发完成,并于2025-06-23向国家知识产权局提交的专利申请。

基于Petri网的离散制造系统韧性增强方法及系统在说明书摘要公布了:本发明属于设备故障检测技术领域,公开了基于Petri网的离散制造系统韧性增强方法及系统。该方法通过确定关键区域以及备用设备与冗余人员合理配置进行冗余设计;进行Petri网建模,智能体依据奖励反馈,运用深度强化学习算法进行petri网模型的循环更新,学习到不同系统状态下的最优调度策略;依据学习得到的最优调度策略和实时状态信息,对Petri网模型的进行优化,完成智能体复杂环境下稳定运行。本发明通过仿真对比实际数据,确保指令精准执行。智能体通过探索率衰减机制逐步收敛至最优策略,适应复杂生产环境。通过时间戳记录工序等待时长,减少在制品积压,提升流程衔接效率。

本发明授权基于Petri网的离散制造系统韧性增强方法及系统在权利要求书中公布了:1.一种基于Petri网的离散制造系统韧性增强方法,其特征在于,该方法包括以下步骤: S1,通过确定关键区域以及备用设备与冗余人员数据配置,进行冗余设计;所述关键区域为基于区域内设备故障率与影响程度确定;基于故障率和影响程度,计算备用设备数量,采用并联模型进行可用性计算,可用性大于90%,以此进行冗余设计; S2,基于冗余设计结果,进行Petri网建模,构建离散制造系统的Petri网模型,并对Petri网模型进行仿真分析; S3,利用动态调度算法,基于Petri网仿真结果进行决策制定与调度执行,通过奖励函数优化策略更新Petri网模型,运用深度强化学习算法学习最优调度策略;所述动态调度算法为基于TQS、EU、OCR生成综合韧性指数SRI,并以其设计奖励函数,以具体的St为输入状态向量、经验池存储、按TD误差进行采样构成的具体的动态调度算法;其中,TQS为任务队列饱和度,EU为设备利用率,OCR为订单完成率,综合韧性指数SRI基于TQS、EU、OCR的加权融合得到; S4,依据学习得到的最优调度策略和实时状态信息,对Petri网模型的进行优化,完成智能体复杂环境下稳定运行; 在步骤S3中,动态调度算法,包括: S301,系统初始化;确定关键区域与冗余配置、构建Petri网模型、初始化深度强化学习参数; S302,被动状态数据集成与处理;智能体每30分钟从人工处理的Petri网仿真结果中获取核心状态数据,用于动态调度决策: S303,决策制定; S304,调度执行; S305,奖励反馈与学习优化,根据韧性评估指标设计奖励函数; S306,持续优化与循环;更新与监测系统状态以及循环调度决策,重复上述决策制定、调度执行、奖励反馈与学习优化不断调整调度策略,完成以综合韧性指数为导向的动态优化调度; 在步骤S305中,奖励反馈与学习优化,根据韧性评估指标设计奖励函数,包括: S3051,奖惩规则与公式推导: TotalReward=Rewards-Penalties; 式中,Wi为第i个工位的权重,γ1,γ2,γ3,γ4分别为SRI、TQS、EU及OCR的权重系数; S3052,综合韧性指数SRI,奖励规则为: 其中,分母0.07为合理区间半宽,0.85-0.70=0.15,半宽0.075,取0.07适配二次梯度,SRI=0.78时奖励最大; 惩罚规则为: 其中,SRI∈[0.70,0.85]采用二次函数奖励,SRI越接近78%奖励越高,强化全局稳定性;SRI70%或SRI85%:加倍线性惩罚,抑制系统波动; S3053,任务队列饱和度TQS,奖励规则为: 其中,分母0.50为合理区间跨度0.80-0.30,TQS=0.65时奖励最大,奖励1.0,边缘奖励0.0; 惩罚规则差异化比例为: 其中,关键工位惩罚系数μi=0.6,其他工位μi=0.3; TQSi∈[0.30,0.80]采用线性奖励,TQS越接近65%奖励越高,优化队列平衡;TQS30%或TQS80%:按工位缓冲容量差异化惩罚:对于关键工位,惩罚系数θ=0.7,严控积压风险;普通工位惩罚系数θ=0.3; S3054,设备利用率EU,奖励规则为: 其中,分母0.15为合理区间跨度,EU=0.78时奖励最大,边缘为0.70或0.85奖励0.0; 惩罚规则为: 式中,高故障率工位惩罚系数θi=0.7,低故障率工位θi=0.4; S3055,订单完成率OCR,奖励规则为: 式中,分母0.05为合理区间跨度,OCR=1.00时奖励1.0,OCR=0.95时奖励0.0; 惩罚规则为: 式中,当OCR在合理区间时,二次函数递增奖励,越接近100%奖励越高,鼓励精准交付; S3056,参数配置表与推导依据; S3057,策略更新:智能体依据奖励反馈,运用深度强化学习算法更新其对不同系统状态下最优调度策略的估计;根据当前系统状态、执行的动作以及获得的奖励,通过反向传播算法调整策略网络中的参数,使智能体在未来决策中倾向于选择高奖励的策略,逐渐学习到在各种复杂情况下的最优调度策略,不断优化调度决策,使系统适应复杂多变的生产环境; 在步骤S3057中,策略更新,包括: S30571,状态感知与输入编码; 输入状态向量st:系统状态由各工位核心指标构成,维度为47,包括:st=[TQSi,EUi,OCR,设备故障标志,备用设备启用状态];其中,TQSi,EUi,OCR为7个工位的核心指标,总维度位21位; 设备故障标志为每个工位的主设备状态以二进制位编码,0=正常,1=故障,总维度为23位; 备用设备启用状态为关键工位的备用设备启用状态以二进制位编码,总维度为3位; S30572,动作选择与执行; 策略网络Actor输出:输出动作概率分布πa|st; 动作采样:按概率分布选择动作at; Petri网更新:更新Petri网模型,确保模型与实际生产状态一致; S30573,奖励计算; 奖励函数:基于综合韧性指标的公式为TotalReward=Rewards-Penalties; 其中,Rewards计算公式为: 其中,Penaltys计算公式为: S30574,经验存储与采样; 经验池存储:将轨迹存入经验池; 优先级采样:按TD误差Pi=∣rt+γ·Vst+1-Vst∣加权,高误差样本优先重放,γ为折扣因子。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国海洋大学,其通讯地址为:266404 山东省青岛市黄岛区古镇口军民融合创新示范区三沙路1299号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。