Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 上海沄熹科技有限公司张仔涵获国家专利权

上海沄熹科技有限公司张仔涵获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉上海沄熹科技有限公司申请的专利基于Q-learning生成分布式执行计划的方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116991878B

龙图腾网通过国家知识产权局官网在2026-02-06发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310740409.6,技术领域涉及:G06F16/2453;该发明授权基于Q-learning生成分布式执行计划的方法及系统是由张仔涵设计研发完成,并于2023-06-21向国家知识产权局提交的专利申请。

基于Q-learning生成分布式执行计划的方法及系统在说明书摘要公布了:本发明公开了基于Q‑learning生成分布式执行计划的方法及系统,属于分布式数据库技术领域,本发明要解决的技术问题为如何将强化学习应用到数据库中,用于生成最优的分布式物理执行计划,从而提高查询性能和响应速度,采用的技术方案为:该方法具体如下:生成逻辑计划:生成一个planNode逻辑计划节点,每一条SQL均有对应的planNode;生成分布式物理计划:根据逻辑计划生成分布式物理计划;具体如下:查询优化器接收到一个SQL查询,并根据查询语句构建逻辑查询计划;将逻辑查询机刷转换成分布式物理查询计划;针对每个候选的物理执行计划采用Q‑learning算法生成最优的代理选择和任务分配方案。

本发明授权基于Q-learning生成分布式执行计划的方法及系统在权利要求书中公布了:1.一种基于Q-learning生成分布式执行计划的方法,其特征在于,该方法具体如下: 生成逻辑计划:生成一个planNode逻辑计划节点,每一条SQL均有对应的planNode; 生成分布式物理计划:根据逻辑计划生成分布式物理计划;具体如下: 查询优化器接收到一个SQL查询,并根据查询语句构建逻辑查询计划; 将逻辑查询计划转换成分布式物理查询计划:优化器生成一个候选的物理执行计划列表,并且每个物理执行计划均涉及到一个或多个节点上的任务分配; 针对每个候选的物理执行计划采用Q-learning算法生成最优的代理选择和任务分配方案; 根据代理选择和任务分配方案计算出物理执行计划的效用函数值; 通过比较所有候选的物理执行计划的效用函数值,选择效用函数最高的物理执行计划作为执行该查询的方案; 执行由优化器选择的最佳物理执行计划,在分布式环境中协调各个节点的执行进度,最终完成查询处理; 其中,效用函数值与任务完成时间、资源利用率和负载均衡相关,具体如下: 根据任务完成时间和截止时间的比例计算完成任务的效用函数值,并对完成任务的效用函数值进行归一化处理;具体为: completionUtility:=math.Max0,taskDeadline-taskExecutionTimetaskDeadline; 其中,completionUtility表示一个calculateUtility函数;taskExecutionTime表示任务的实际完成时间;taskDeadline表示任务的截止时间; 根据系统资源利用率计算资源利用效用函数值,并对资源利用效用函数值进行归一化处理;具体为: resourceUtility:=math.Max0,1-resourceUtilization; 其中,resourceUtilization表示系统资源的利用率; 根据代理负载均衡计算负载均衡效用函数值,并使用函数对效用函数值进行平滑处理,具体为: loadBalanceUtility:=math.Exp-agentLoadBalance 其中,agentLoadBalance表示各个代理的负载均衡情况; 将各个效用函数按照权重进行加权平均,综合计算总体效用函数值,具体为: utility:=0.6completionUtility+0.3resourceUtility+0.1loadBalanceUtility; Q-learning算法是以贪心策略为基础,不断地对当前状态的Q值进行更新,使Q值越来越逼近最优值;具体为: 在每个时间步骤中,智能体根据当前状态选择一个动作,并观察到环境的下一个状态和相应的奖励信号; 智能体使用下一个状态的最大Q值更新当前状态的Q值,并将这个Q值存入Q表中; Q-learning算法生成分布式执行计划的训练过程,公式如下: Qs,a=Qs,a+αr+γmaxQs',a'-Qs,a; 其中:S表示逻辑计划生成的plannode与NodeID之间的映射,作为当前状态;a表示NodeID服务器节点ID,作为当前动作;s'表示逻辑计划生成的plannode与新的NodeID之间的映射,作为下一个状态;α表示学习率;γ表示衰减因子,用于调整未来奖励的折扣因素;Qs,a=Qs,a+αr+γmaxQs',a'-Qs,a代表Q值的更新过程,通过对奖励信号的不断观察和对Q值的不断更新,物理计划逐渐学习到最优分布式策略。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人上海沄熹科技有限公司,其通讯地址为:200120 上海市浦东新区中国(上海)自由贸易试验区张东路1158号、丹桂路1059号2幢305-22室;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。