Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)王轩获国家专利权

哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)王轩获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)申请的专利基于并行自适应拍卖算法的非统一内存访问资源分配方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118981372B

龙图腾网通过国家知识产权局官网在2025-07-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410987081.2,技术领域涉及:G06F9/50;该发明授权基于并行自适应拍卖算法的非统一内存访问资源分配方法是由王轩;陈倩;杨岑莹;蒋琳;孙小真设计研发完成,并于2024-07-23向国家知识产权局提交的专利申请。

基于并行自适应拍卖算法的非统一内存访问资源分配方法在说明书摘要公布了:本发明公开了一种基于并行自适应拍卖算法的非统一内存访问资源分配方法,方法包括下述步骤:当操作系统启动时,获取非统一内存访问架构中的节点信息及任务信息;将非统一内存访问架构的资源问题视为带位置约束的背包问题,采用并行自适应拍卖算法进行优化求解,得到分配结果。本申请将经济学理论和计算机科学进行结合,在拍卖机制下使任务对资源进行自主竞标,同时将问题有效分解为独立的并行计算子问题,使得各任务的出价策略相互独立,实现内存资源的更有效且高效分配;在对资源进行自主竞标时,本发明将DQN模型与拍卖机制下的广告主策略求解相结合,提高了DQN模型的稳定性,实现了任务基于本地信息的自主决策,从而实现分散、高效的资源分配。

本发明授权基于并行自适应拍卖算法的非统一内存访问资源分配方法在权利要求书中公布了:1.基于并行自适应拍卖算法的非统一内存访问资源分配方法,其特征在于,包括下述步骤: 当操作系统启动时,获取非统一内存访问架构中的节点信息及任务信息;所述节点信息包括节点数、节点起始位置和节点终止位置;所述任务信息包括任务数及任务占用节点数; 将非统一内存访问架构的资源问题视为带位置约束的背包问题,采用并行自适应拍卖算法进行优化求解,得到分配结果; 所述将非统一内存访问架构的资源分配问题视为带位置约束的扩展背包问题,表示为: Wi=N-i0.5,0≤iN, wherepositionipositionj+widthjandpositionjpositioni+widthi, 其中,Score为目标函数;Wi为第i个任务的权重;widthi为第i个任务占用的资源量;xi为第i个任务的状态,当xi=1时表示第i个任务被选中,当xi=0时表示第i个任务未被选中;N为任务数;C为背包容量,即所有被选中任务占用的资源量不能超过的最大资源量;positioni为第i个任务的位置信息,li为第i个任务位置的下限,ui为第i个任务位置的上限;xj为第j个任务的状态;positionj为第j个任务的位置信息; 所述采用并行自适应拍卖算法进行优化求解,过程为: 使用训练好的DQN模型为每个任务选择与当前环境和状态相适应的最佳α值;所述最佳α值用于调整每个任务的投标价格; 采用异构多线程来并行计算每个任务的起始位置的投标价格进行竞标,并存储在任务列表中;所述投标价格计算式为:bidi=Wi*αi,其中,bidi为第i个任务的投标价格,αi为第i个任务的最佳α值; 基于任务列表对任务进行分配,得到所有任务的最终起始位置和最佳α值列表; 所述DQN模型包括架构相同但参数不同的当前Q网络和目标Q网络,以及体验回放缓冲器; 所述当前Q网络用于在当前任务状态下预测每个任务的各个可能竞标动作的Q值,并选择Q值最高的竞标动作作为当前任务状态下的最优竞标动作; 所述目标Q网络用于计算在下一任务状态下的目标Q值,目标Q网络的参数定期从当前Q网络复制; 所述体验回放缓冲器用于存放DQN模型训练过程的经验并更新当前Q网络的参数; 所述使用训练好的DQN模型为每个任务选择与当前环境和状态相适应的最佳α值,具体为: 从体验回放缓冲器中随机抽取一个小批量经验数据;每条经验数据包含任务在当前时间步的任务状态、竞标动作、奖励以及下一时间步的任务状态、竞标动作; 使用训练好的DQN模型中的目标Q网络计算任务的目标Q值,选择任务目标Q值最高的竞标动作作为当前任务状态下的最佳α值;所述目标Q值的计算式为: Qstatet,actiont=rewardt+γmaxactiont+1*Qstatet+1,actiont+1;θ-, 其中,Qstatet,actiont为任务在当前时间步t下的目标Q值,statet为任务在当前时间步t下的任务状态,actiont为任务在当前时间步t下的竞标动作,rewardt为任务在当前时间步t下的奖励;γ为折扣因子,用于平衡任务在当前时间步的奖励和下一时间步的奖励的比重;Qstatet+1,actiont+1;θ-为任务在下一时间步t+1、参数θ-下的目标Q值;maxactiont+1为目标Q网络预测的下一任务状态下的最大目标Q值;θ-为目标Q网络在下一时间步t+1下的参数;statet+1为任务在下一时间步t+1的任务状态;actiont+1为任务在下一时间步t+1的竞标动作。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院),其通讯地址为:518055 广东省深圳市南山区桃源街道深圳大学城哈尔滨工业大学校区;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。