重庆交通大学黄昱泽获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉重庆交通大学申请的专利一种车载边缘计算中服务协同缓存方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115866687B 。
龙图腾网通过国家知识产权局官网在2025-10-31发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211386214.8,技术领域涉及:H04W28/08;该发明授权一种车载边缘计算中服务协同缓存方法是由黄昱泽;冯北鹏;曹宇慧;郭珍珍设计研发完成,并于2022-11-07向国家知识产权局提交的专利申请。
本一种车载边缘计算中服务协同缓存方法在说明书摘要公布了:本发明公开了一种车载边缘计算中服务协同缓存方法,包括如下步骤:一根据历史访问记录,基于ARIMA模型预测服务请求的请求量;二建立服务时延模型,其包括:1车辆终端到边缘服务器的时延模型;2边缘节点之间传输产生的时延模型;3边缘服务器处理请求而产生的计算时延模型;4服务请求总时延模型;三建立服务缓存和资源分配模型:1建立深度强化学习的状态空间模型;2建立深度强化学习的动作空间模型;3设置奖励函数;4获取最大化奖励值。本发明通过准确预测服务类型,建立服务处理时延模型,并进行合理应用缓存和资源分配的方式,优化服务处理流程,提高服务处理效率,有效降低服务响应时延。
本发明授权一种车载边缘计算中服务协同缓存方法在权利要求书中公布了:1.一种车载边缘计算中服务协同缓存方法,其特征在于:包括如下步骤: 一根据历史访问记录,基于ARIMA模型预测服务请求的请求量; 二建立服务时延模型,其包括: 1车辆终端到边缘服务器的时延模型: 其中:为时隙t所有节点接收到的请求服务k的总数量,ck,i,t表示在时隙t由边缘节点i接收到的请求服务k的数量,vedge表示车辆终端与边缘服务器之间的传输速率,S为边缘节点集合,dk表示放置服务k所需的存储空间,其满足而Di表示边缘服务器i的存储能力,K为服务请求集合; 2边缘节点之间传输产生的时延模型为: 其中:边缘节点之间的传输速率为vbet,Ck,t-ck,i,t表示需要传输到边缘服务器i上处理的服务数量;bk,i,t∈{0,1}为二元变量,若服务放置在边缘节点i上,则设置bk,i,t=1,否则设置bi,k,t=0,因此有bk,i,t∈{0,1},k∈K,i∈S.,S为边缘节点集合,K为服务请求集合; 3边缘服务器处理请求而产生的计算时延模型为: 其中,mk表示服务请求k所需要的计算资源,lk,i,tMi表示服务器i分配给服务k的计算资源大小,Mi表示边缘服务器i的计算能力,lk,i,t应该满足lk,i,t∈[0,1],k∈K,i∈S,当服务被放置在边缘服务器上时, 4服务请求总时延模型为: 其中,服务k跟服务k*是具有关联关系的服务对,K表示该场景中的服务请求集合,即K={1,2,3......k};以缩小任务的平均响应时延为目标,优化目标表示为: 三建立服务缓存和资源分配模型: 1建立深度强化学习的状态空间模型S*i,t: S*i,t={ck,i,t,Mi,Di,lk,i,t}; 2建立深度强化学习的动作空间模型Ait: Ait={bk,i,t,Δlk,i,t,k∈K}; 其中,Δlk,i,t表示计算资源的最小分配单元、K表示该场景中的服务请求集合,即K={1,2,3......k}; 3设置奖励函数Rt,令令则 其中,状态取动作At得到状态Δw表示在两个状态的响应时间差,α为常数,K表示该场景中的服务请求集合,即K={1,2,3......k}; 4获取最大化奖励值:先将Qs,a定义为动作值,然后用一个a*来表示最大化动作值Qs,a: a*=argmaxa∈AQs,a; 其中,为计算神经网络每次迭代的前向计算结果与真实值的差距,从而指导下一步的训练向正确的方向进行,使用损失函数:修正前向计算公式中的各个权重值;参数θ的更新用梯度下降法更新:其中η是学习率。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人重庆交通大学,其通讯地址为:400074 重庆市南岸区学府大道66号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励