北京航空航天大学李明星获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京航空航天大学申请的专利一种跨时间步交互的时空图融合轨迹预测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119850680B 。
龙图腾网通过国家知识产权局官网在2026-01-20发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510018651.1,技术领域涉及:G06T7/246;该发明授权一种跨时间步交互的时空图融合轨迹预测方法是由李明星;李文雯;刘杨;贾英民设计研发完成,并于2025-01-07向国家知识产权局提交的专利申请。
本一种跨时间步交互的时空图融合轨迹预测方法在说明书摘要公布了:本发明涉及一种跨时间步交互的时空图融合轨迹预测方法,属于轨迹预测技术领域,解决了常规模型对跨时间步相互作用特征提取不足的问题。技术方案为:首先构建跨时间步3D时空关系图以表征场景中各目标在空间域和时间域上的信息交互;然后采用位置前馈网络和图注意力网络提取跨时间步交互信息;同时,通过构建单步时空关系图并引入图卷积网络和时间卷积网络分别提取当前时刻的空间特征及各目标的时间依赖关系,之后采用特征融合网络融合上述两种模型的图特征;最后通过ConvGRU编解码器输出各目标的预测轨迹。本专利相比于近期其他方法在平均ADE和FDE指标上均有明显降低,提高了轨迹预测的准确性。
本发明授权一种跨时间步交互的时空图融合轨迹预测方法在权利要求书中公布了:1.一种跨时间步交互的时空图融合轨迹预测方法,其特征在于:通过构建跨时间步3D时空关系图建立起场景中各目标跨时间步之间的信息交互,并利用改进的图网络完成时空特征提取,大大提高预测的准确性,具体采用如下步骤: 步骤1:构建跨时间步3D时空关系图; 步骤2:根据时空关系图构建邻接矩阵作为神经网络输入; 步骤3:利用位置前馈网络和基于多头注意力机制的图注意力网络GAT同时提取时空交互特征; 步骤4:为了更加充分提取时空图特征,另外引入了图卷积网络GCN与时间卷积网络TCN分别处理空间和时间维度上的目标间交互; 步骤5:将两种模型提取的时空特征信息进行融合,融合模块通过去除Transformer解码器中的掩码自注意模块,仅保留多头交叉注意力和FFN模块; 通过交叉注意力,网络可以学习两种特征之间的全局连接、区别和重要性水平;通过多层连接和FFN的存储功能,可以获得与两种输入兼容的融合图特征; 步骤6:将融合后的时空图特征作为基于ConvGRU的编解码器的输入,同时预测未来时间步各目标的运动轨迹; 步骤7:使用训练数据集和验证数据集训练模型,进而确定网络模型的参数; 步骤8:使用训练好的网络模型在测试数据集进行轨迹预测; 步骤1包括以下内容: 构建了一种跨时间步3D时空关系图G={V,E};节点集合V={vit∣i=1,…,n,t=1,…,th},其中每个结点代表一个目标;边集合E可分为时间边EF和空间边ES两部分;时间边以逐帧历史信息表示,不仅考虑将前一时刻的各目标与后一时刻的自身相连,还额外引入了跨时间步上的不同目标之间的交互关系,可表示为EF={vitvjt+1};空间边用于表示两个目标之间的交互关系,可表示为ES={vitvjt∣i,j∈D},通过设定一个邻接距离阈值D来区分每个目标与周围目标的关系,如果两个节点的距离小于设定的邻接距离,则在每个时间戳的两个节点之间创建一条空间边;通过多次设置不同阈值构建图结构并通过计算k个未来帧的均方误差RMSE验证轨迹预测效果;为了提高计算效率,使用邻接矩阵存储这种时空连接关系,用A0为表示时间上的自连接的单位矩阵,A1为空间连接邻接矩阵,E为边集合,若vit,vjt之间建立了边关系,则邻接矩阵中该位置元素为1,否则为0,具体如下式: 步骤3包括以下内容: 添加了一个位置前馈网络FFN,主要采用多个线性和非线性变换的形式;取节点特征和边特征,通过两个线性层和一个激活函数进行前向传播;线性层扩展了每个位置的表示,激活函数学习非线性特征,如下式所示: FFNv,W1,W2,b1,b2=max0,vW1+b1W2+b2 其中v指的是输入向量,W1,W2,b1,b2指可学习的参数;将位置前馈网络模块的输出作为BatchNorm层的输入,加速模型训练;采用具有注意力机制的图注意力网络GAT提取时空特征;通过注意力机制,GAT网络可以为不同邻居节点分配不同的学习权重,提升了网络提取的空间交互信息的能力;采用2个图注意力网络GATs来捕获目标之间的高级交互,应用残差连接来提高模型性能; 步骤5包括以下内容: 特征融合模块主要由多头交叉注意力和FFN两部分构成;对多头交叉注意力,除了内部线性变换外,注意力机制的计算如下式所示,其中 融合模块的作用机制表示为下式: IFFQ,K,V=XF+FFNXF XF=Q+MHCAQ+Pq,K+Pkv,V 是图注意力模型的特征输出,K和是图卷积模型的特征输出,和是空间位置编码,MHCA.,.,.是多头交叉注意力机制;将融合后的图特征作为后续基于ConvGRU的轨迹预测模块的输入。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京航空航天大学,其通讯地址为:100191 北京市海淀区学院路37号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励