Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 南京邮电大学杨海根获国家专利权

南京邮电大学杨海根获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉南京邮电大学申请的专利一种面向离散制造系统的智能交互式决策方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115796364B

龙图腾网通过国家知识产权局官网在2026-02-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211518004.X,技术领域涉及:G06Q10/04;该发明授权一种面向离散制造系统的智能交互式决策方法是由杨海根;林东煌;王聪;曾凡玉;戴尔晗;刘佶鑫;葛艳设计研发完成,并于2022-11-30向国家知识产权局提交的专利申请。

一种面向离散制造系统的智能交互式决策方法在说明书摘要公布了:本发明公开了一种面向离散制造系统的智能交互式决策方法,包括如下步骤:步骤1、针对实际应用场景,建立离散制造生产调度优化模型与策略;步骤2、基于深度强化学习算法,利用已有生产数据训练调度策略,将训练过程中具有高奖励的状态存入记忆体;步骤3、利用记忆体中的先验知识更新状态;步骤4、将更新后的状态输入深度强化学习网络,得到对应的奖励,并根据其奖励更新记忆体;步骤5、反复执行步骤4,直至模型参数收敛,保存模型,投入实际生产场景。本发明利用记忆体机制降低模型训练的计算量,提高模型训练的速度,能更快的迭代出最优解。

本发明授权一种面向离散制造系统的智能交互式决策方法在权利要求书中公布了:1.一种面向离散制造系统的智能交互式决策方法,其特征在于,包括如下步骤: 步骤1、针对实际应用场景,建立离散制造生产调度优化模型与策略; 步骤2、基于深度强化学习算法,利用已有生产数据训练调度策略,将训练过程中具有高奖励的状态存入记忆体;从投入生产的离散制造车间采集一定生产周期的生产数据,作为预训练的样本,选择深度强化学习算法,利用采集的生产数据训练一个离散制造生产调度优化模型R,该模型输入当前车间采样的生产数据,输出对车间生产线进行调度优化的决策方案; 定义一个记忆体D,其容量为M,用来存放状态-奖励对s,r,车间状态s为获得对应奖励r所采取的行动策略公式为: 上式中,Qst,at为动作价值函数,其中st表示当前制造车间的状态,at表示采取当前时刻生产车间要采用的行动调度,该行动策略以1-ε的概率为当前车间状态st随机选择一个动作或者以ε的概率根据动作价值函数Q评估出当前状态的各动作q值,并选择当前最优动作a,对当前车间状态st执行最优调度策略a,得到奖励rt和下一状态st+1,并更新记忆体; 记忆体的更新过程具体为: a如果记忆体D容量未满且不存在与st相似的sii=1,2,3,…,M,则录入状态-奖励对st,rt,其相似度计算公式如下: 上式中,Simit表示st与si的相似度,如果Simitδ,则认为si与st相似,其中δ为判断相似度的阈值; b如果记忆体D中存在与st相似的si,则选择奖励更高的状态进行替换,其更新公式如下: 上式中,ri是状态si对应的奖励,rt是状态st对应的奖励,“~”表示相似; 最终完成记忆体的初始化,记忆体中存储了M个具有最高奖励的车间状态,表示根据已采集的实际生产数据,制造车间处于这M种状态下具有较高的奖励,更接近生产调度的目标; 步骤3、利用记忆体中的先验知识更新状态; 步骤4、将更新后的状态输入深度强化学习网络,得到对应的奖励,并根据其奖励更新记忆体; 步骤5、反复执行步骤4,直至模型参数收敛,保存模型,投入实际生产场景。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京邮电大学,其通讯地址为:210023 江苏省南京市亚东新城区文苑路9号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。