同济大学王宁获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉同济大学申请的专利一种面向无人驾驶电动出租车的动态拼车调度方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119313060B 。
龙图腾网通过国家知识产权局官网在2026-01-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411330486.5,技术领域涉及:G06Q10/0631;该发明授权一种面向无人驾驶电动出租车的动态拼车调度方法是由王宁;尚凯设计研发完成,并于2024-09-23向国家知识产权局提交的专利申请。
本一种面向无人驾驶电动出租车的动态拼车调度方法在说明书摘要公布了:本发明公开了一种面向无人驾驶电动出租车的动态拼车调度方法,先获取数据并进行清洗;将数据映射在各六边形网格中;建立出行需求特征矩阵和空间依赖矩阵;构建基于注意力机制的时空图卷积神经网络,获得出行需求预测结果;设定动态拼车场景下车单匹配的约束条件;基于出行需求预测结果和车单匹配约束条件,构建基于分布式深度强化学习的车单匹配决策模型;设计DoubleDQN求解算法,基于结果进行实时订单匹配和空闲车辆调度,通知获得匹配的车辆完成相应订单,通知未获得匹配的空闲车辆进行区域调度或充电补能。本发明在多乘客单车的动态拼车中,考虑电动汽车续航历程约束和车辆充电补能需求,更符合实际运营要求提升质量。
本发明授权一种面向无人驾驶电动出租车的动态拼车调度方法在权利要求书中公布了:1.一种面向无人驾驶电动出租车的动态拼车调度方法,其特征在于,包括如下步骤: 1获取用户历史出行订单、拼车订单及车辆状态位置信息数据; 2对用户历史出行订单进行数据清洗; 3将运营区域划分为正六边形网格,并将清洗后的数据映射在各六边形网格中,体现用户拼车出行需求时空分布差异; 4基于步骤3中数据清洗及出行需求时空分布结果,建立出行需求特征矩阵和空间依赖矩阵,以分别量化乘客出行时间特性和空间特性; 5构建基于注意力机制的时空图卷积神经网络,获得出行需求预测结果; 6设定动态拼车场景下车单匹配的约束条件,包括容量约束、距离约束、时间约束、续航里程约束和顺序约束; 7基于步骤5中出行需求预测结果和步骤6中车单匹配约束条件,构建基于分布式深度强化学习的车单匹配决策模型; 8设计DoubleDQN求解算法,采用DoubleDQN网络动态生成优化策略,将车辆最佳动作价值函数定义为最大预期可实现的奖励,对于每辆车均采用使神经网络输出价值最大的动作,学习过程从零开始,按照Epsilon-Greedy方法使用贪婪方案选择操作,在此策略下,智能体以概率选择导致最高Q值的动作,否则选择随机动作,对于第辆车,选择动作后,根据奖励,用学习率更新Q值; 9基于步骤8中模型求解结果进行实时订单匹配和空闲车辆调度,通知获得匹配的车辆完成相应订单,通知未获得匹配的空闲车辆进行区域调度或充电补能, 所述步骤1数据包括乘客出行起点和终点、出行人数和出发时间、车辆剩余电量和续驶里程、车辆位置、车辆可搭载乘客数, 所述步骤4包括: 4.1在空间维度上,通过格兰杰因果检验来表征区域间乘客出行的空间依赖特性,并建立空间依赖矩阵,矩阵中的元素仅包含0和1,代表两个区域间是否存在出行需求的依赖:若无依赖关系,则记为0;若有依赖关系,则记为1,具体如下, 式中,的矩阵元素;均为划分区域;为区域的到达需求时间序列;为区域的出行需求序列; 4.2在时间维度上,乘客出行需求数据具有天然的周期性,此外,临近预测时刻的出行需求也会对目标时间序列的预测产生影响,抽取目标预测时刻的上一时刻的出行需求数据、前一日相应时刻的出行需求数据、前一周相应时刻的出行需求数据构建出行需求特征矩阵,进而构建包含临近时间、日周期和周周期的时间序列片段, 所述步骤5包括: 5.1构建基于注意力机制的时空图卷积神经网络,将步骤4中的时间序列片段,连同空间依赖性矩阵,输入到相应的依赖性分析组件中生成经过归一化处理的空间注意力矩阵和时间注意力矩阵; 5.2时间注意力机制:首先,构建时间维度卷积模块,沿着数据的时间轴进行操作,以提取时间序列中的重要特征,进而捕捉乘客出行需求随时间变化的动态模式和相关性,通过时间维度的一维卷积操作,模型根据卷积核大小沿时间轴实时更新乘客出行需求,捕捉各时刻间的相关性,具体如下, ; 式中,为激活函数,为时间维度的卷积和参数, 然后,构建时间维度注意力模块,通过自注意力机制,模型能够自动识别并提取出行需求数据中的关键依赖特征,同时根据输入数据的具体情况动态调整时间维度上出行需求的相关性强度,具体如下, ; ; 式中,、、、、为通过输入数据学习得到的参数;为根据当前时刻的输入数据通过时间维度的注意力模块自动学习得到的时间相关性矩阵,为利用Softmax函数对矩阵进行归一化处理得到的时间注意力矩阵;为节点和之间的相关程度, 进而,通过对输入数据进行动态调整,可以更深入地抽取其特征,归一化后的时间注意力矩阵应用到当前的输入数据中,得到,利用经过调整的数据,可进一步提取下一阶段的特征; 5.3空间注意力机制:首先构建空间维度图卷积模块,采用谱图理论把数据解读为图结构,利用卷积技术对这些图形数据进行处理,通过空间维度的ChebNet图卷积分析,从图信息中提炼出空间特征,从而揭示乘客出行需求在空间层面的关联性,具体如下, ; 式中,为第M个区域中第个时刻乘客出行数据中的图信号矩阵特征;为待学习参数;为归一化后的拉普拉斯矩阵, 然后构建空间维度注意力模块,采用自注意力机制来捕捉空间维度上区域间依赖性的动态变化,并自动调整乘客出行需求数据间的相关性,以适应这些变化,具体如下, ; ; 式中,为第层时空模块的输入数据;为第层时空模块输入数据的通道数;为第层时空模块输入数据的时间维长度;、、、、为通过注意力机制学习获得的参数集;为基于当前输入数据学习而来的空间注意力矩阵;为节点与之间相互作用的强度;为利用Softmax函数对进行标准化生成的归一化后的空间注意力矩阵,该空间注意力矩阵里的每个元素值代表区域间的权重系数, 进而,动态调整空间注意力矩阵和空间图卷积中切比雪夫多项式中的空间依赖关系的矩阵,通过影响权重,实现各区域之间注意力的合理分配; 5.4通过堆叠时空模块并应用残差学习策略进行训练,使用全连接层调整临近依赖、日周期和周周期组件的输出,以匹配预测目标的维度,然后融合这些输出以得出最终的出行需求预测, 所述步骤6包括: 6.1容量约束的数学表达式如下, ; 式中,为新订单中包含的乘客数,该值必须不超过车辆当前的剩余可用容量;为车上已有乘客数;为车辆总座位数,设定为4人; 6.2接单距离约束的数学表达式如下, ; ; 式中,为新订单的上车地点;为车辆的当前位置;为车辆从当前位置到订单上车地点的接单距离;为按照当前线路所需接单时间;为订单响应时间;为用户可等待的最长时间,设定为10分钟;为3km, 6.3绕行距离约束的数学表达式如下, ; 式中,是乘客行程请求乘车后经过的时间;为由于绕行或从时间开始添加新的拼车乘客为乘客行程到结束的新的预估行程时间;为如果车辆只为乘客行程服务时所花费的行程时间;为常数,设定为0.5, 6.4续航里程约束的数学表达式如下, ; 式中,为最低续航里程;为加入订单后更新的行驶路径里程,设定为100km;为当前车辆的续航里程, 6.5顺序约束的数学表达式如下, ; 式中,为乘客上车地点在车辆目的地集合中的顺序;为乘客下车地点在车辆目的地集合中的顺序, 所述步骤7包括: 7.1将实时订单匹配和车辆调度过程建模为马尔可夫决策过程,并对马尔可夫决策过程中涉及的状态、动作、奖励和状态转移概率进行定义; 定义一个三元组来捕获时间的系统状态更新:,并将该三元组状态变量组合在一个向量中,其中,为在时间时的所有个车辆的当前状态,为在未来个时间段内每个区域的车辆数量,为每个区域从时间到时间的未来出行需求预测; 定义车辆的动作由两个部分组成:第一部分是如果车辆部分满载,则它决定是服务现有乘客还是服务新乘客;第二部分是如果车辆上没有乘客或它决定服务新乘客,则需要决定车辆应在时隙前往的区域,用表示;如果车辆决定为新用户提供服务并决定前往区域,则,否则为0;如果车辆已无空余位置,则它无法为任何其他乘客提供服务; 定义车辆在时隙的奖励如下, ; 式中,为奖励表达式中各个部分的权重;为车辆在时间服务的订单数量;为车辆在有可用座位的情况下绕道接载额外乘客所花费的时间;为和直接为乘客行程服务与进行拼车情况相比,车辆由于拼车而花费的额外时间;为车辆占用状态,若空闲车辆被占用则将其设置为1,若已有乘客的车辆接纳了新客户则其为0; 定义状态转移概率矩阵为,表示行动和奖励函数之间的概率依赖性,使用神经网络确定转移概率和奖励分布,并用于查找状态动作价值Q值; 7.2设计多智能体的决策变量和目标函数, 在每个时间步,模型算法都会获得环境的状态和环境给出的奖励,根据环境的状态以及奖励,模型采取行动来指导空闲车辆前往不同的位置,以使得预期的未来长期奖励最大化,该过程中,智能体有两个决策变量,第一个决策变量为,在时间时,智能体决定将车辆调度到区域,则,否则为0,第二个决策变量为,若车辆n乘客没有坐满,智能体需要决策该车辆是否可以在时间段t为新客户提供服务,如果决定为顾客提供服务则,否则,由此,得到多智能体在时刻的目标函数如下: ; ; ; ; ; 式中,为各个目标的权重因子;负号表示最终目标实际上想要最小化括号内的项;为车辆供应缺口;为总调度时间;为总的额外行程时间;为进行服务的车辆总数, 所述步骤8更新过程如下: ; 由于系统空间较大,需要使用神经网络维持系统空间,更新这些值时,使用损失函数来计算预测Q值和目标Q值之间的差异,损失函数表达式如下: ; 式中,和分别为训练神经网络与目标神经网络的权重。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人同济大学,其通讯地址为:200092 上海市杨浦区四平路1239号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励