Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 清华大学王红获国家专利权

清华大学王红获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉清华大学申请的专利面向自动驾驶长尾场景的深度强化学习安全决策方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119918612B

龙图腾网通过国家知识产权局官网在2026-02-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411916849.3,技术领域涉及:G06N3/092;该发明授权面向自动驾驶长尾场景的深度强化学习安全决策方法是由王红;李骏;李雪轲设计研发完成,并于2024-12-24向国家知识产权局提交的专利申请。

面向自动驾驶长尾场景的深度强化学习安全决策方法在说明书摘要公布了:本申请涉及智能驾驶的技术领域,特别是涉及一种面向自动驾驶长尾场景的深度强化学习安全决策方法。方法包括:在长尾知识图中匹配拓扑关系图,得到场景相似度,并基于场景相似度确定自车的驾驶场景中是否存在隐式风险元素;在确定自车的驾驶场景中存在隐式风险元素的情况下,确定隐式风险元素的属性信息,并基于自车和隐式风险元素各自的属性信息,确定空间风险指标;基于场景相似度和空间风险指标,确定自车的驾驶场景的场景复杂度;将自车的属性信息、各道路元素的属性信息以及场景复杂度,输入决策模型,得到决策模型输出的目标动作,并基于目标动作控制自车。采用本申请的方法可以提高车辆在复杂场景车辆行驶的安全性。

本发明授权面向自动驾驶长尾场景的深度强化学习安全决策方法在权利要求书中公布了:1.一种面向自动驾驶长尾场景的深度强化学习安全决策方法,其特征在于,所述方法包括: 在长尾知识图中匹配拓扑关系图,得到场景相似度,并基于所述场景相似度确定自车的驾驶场景中是否存在隐式风险元素;所述拓扑关系图是基于驾驶场景中自车和其他各道路元素的属性信息构建的,所述属性信息包括元素类别、位置、运动方向以及速度;所述长尾知识图是基于多个样本场景信息构建的,所述样本场景信息包括样本元素、样本类别以及先验知识,所述先验知识为包括所述样本元素和所述样本类别的驾驶场景中的知识; 在确定所述自车的驾驶场景中存在隐式风险元素的情况下,确定所述隐式风险元素的属性信息,并基于所述自车和所述隐式风险元素各自的所述属性信息,确定空间风险指标; 基于所述场景相似度和所述空间风险指标,确定所述自车的驾驶场景的场景复杂度; 将所述自车的所述属性信息、所述各道路元素的属性信息以及所述场景复杂度,输入决策模型,得到所述决策模型输出的目标动作,并基于所述目标动作控制所述自车,所述目标动作包括目标横向位置序列和目标纵向速度序列; 其中,所述决策模型是基于多个场景样本训练得到的,每个所述场景样本包括目标车辆和各道路元素的属性信息、以及目标车辆的驾驶场景的场景复杂度; 所述基于所述目标动作控制所述自车,包括: 将所述横向位置序列输入路径规划组件,得到所述路径规划组件输出的包括多个轨迹点的轨迹点序列和包括多个目标速度的目标速度序列; 将所述轨迹点序列输入横向控制器,得到所述横向控制器输出的包括多个目标转向角度的转向角度序列; 将所述目标速度序列输入纵向控制器,得到所述纵向控制器输出的包括多个目标加速度的加速度序列; 基于所述加速度序列和所述转向角度序列控制所述自车; 所述决策模型的训练过程,包括: 从仿真空间中获取各仿真元素的属性信息,并基于所述各仿真元素的属性信息确定所述样本场景的场景复杂度,所述仿真元素包括目标车辆、各仿真场景元素以及仿真隐式风险元素;所述属性信息包括元素类别、位置、运动方向以及速度; 基于所述各仿真元素的所述属性信息,构建仿真状态空间,所述仿真状态空间表征任一所述仿真元素的状态信息与时间的关系,所述状态信息包括速度、位置、运动方向以及纵向夹角; 将所述仿真空间在每一采集时刻对应的各所述仿真元素的属性信息作为一个训练样本,输入初始决策模型,得到所述初始决策模型针对所述训练样本输出的决策动作,并控制所述仿真状态空间中的所述目标车辆执行所述决策动作,所述决策动作包括横向位置序列和纵向速度序列;其中,所述目标车辆在所述仿真状态空间中执行所述决策动作的过程中,所述仿真状态空间更新所述各仿真元素的状态信息; 基于奖励函数确定所述决策动作对应的奖励值,并确定所述初始决策模型的损失函数的值;采用多个所述训练样本训练所述初始决策模型,并在所述奖励值和所述初始决策模型的损失函数符合预设规则的条件下,将所述初始决策模型确定为训练完成的决策模型,所述奖励函数是基于所述样本场景的场景复杂度和各所述仿真元素的状态信息构建的; 所述奖励函数的构建过程,包括: 基于所述目标车辆的实际速度与理想效率速度构建通行效率奖励项,所述理想效率速度为在该样本场景下能够达到的最大速度; 基于所述目标车辆的实际速度、安全速度以及所述样本场景的场景复杂度建立风险奖励项,所述安全速度为所述目标车辆不与所述仿真隐式风险元素相撞的最高速度; 基于所述目标车辆的实际横向位置与所述决策动作中的所述横向位置序列,建立抵达奖励项; 基于所述各仿真元素的状态信息,确定碰撞奖励项; 基于所述通行效率奖励项、所述风险奖励项、所述抵达奖励项以及所述碰撞奖励项,构建奖励函数。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人清华大学,其通讯地址为:100084 北京市海淀区清华园;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。