吉林大学冷炘伦获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉吉林大学申请的专利一种基于新一代人工智能理论的可解释人机混合增强感知方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117151218B 。
龙图腾网通过国家知识产权局官网在2025-12-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311120447.8,技术领域涉及:G06N5/022;该发明授权一种基于新一代人工智能理论的可解释人机混合增强感知方法是由冷炘伦;申棋仁;孙博华;高振海;吴坚;谢林宵设计研发完成,并于2023-09-01向国家知识产权局提交的专利申请。
本一种基于新一代人工智能理论的可解释人机混合增强感知方法在说明书摘要公布了:本发明公开了一种基于新一代人工智能理论的可解释人机混合增强感知方法,其方法为:第一步、整合输入数据流与信息流;第二步、构建人机混合增强感知模型,第三步、构建可解释在线人机融合感知知识库,第四步、整合输出变量,整合系统的输出变量,有益效果:实现了人机混合增强感知可解释性的客观定量评价;保证了人机共驾系统对于驾驶人感知过程的正确理解,极大提升了人机感知一致性,解决了人机感知一致性的问题;形成闭环的人机混合增强感知系统框架;解决了人机混合增强感知系统的可解释性问题;本发明具有自我纠错能力,并且能够基于人机感知一致性对比结果调整人机混合增强感知系统,提高系统的准确性。
本发明授权一种基于新一代人工智能理论的可解释人机混合增强感知方法在权利要求书中公布了:1.一种基于新一代人工智能理论的可解释人机混合增强感知方法,其特征在于:其方法包括的步骤如下: 第一步、整合输入数据流与信息流,具体步骤如下: 步骤一、多模态人-交通混杂态势数据流与信息流,通过车载传感器采集的传感数据进行多模态人-交通混杂态势数据流与信息流整合,多模态人-交通混杂态势数据流包括主车驾驶人数据流和驾驶环境数据流两部分,主车驾驶人数据流指位于智能驾驶座舱中的驾驶人监测系统的各个传感器所采集的数据流,具体包括由方向盘转角、油门与制动踏板开度和档位数据流组成的驾驶人操纵数据流和由驾驶人生物电信号和驾驶人面部图像数据流组成的驾驶人生物信号数据流,驾驶环境数据流指位于智能车辆上用于感知周围交通场景的传感器数据流,包括由IMU、GPS定位和地图数据流组成的惯导数据流、由前视相机和环视相机图像数据流组成的视觉信息数据流、由激光雷达点云、毫米波雷达点云和超声波雷达数据流组成的雷达点云数据流和由红外传感器数据和路面监测传感器数据流组成的其他传感器信息数据流; 对上述的多模态人-交通混杂态势数据流进行数据预处理得到多模态人-交通混杂态势信息流,对于主车驾驶人数据流,根据DMS中相机的图像信息进行驾驶人眼动和头动信息的提取和眨眼频率的计算,形成主车驾驶人信息流;对于驾驶环境数据流,根据视觉信息进行交通参与物提取和跟踪以及根据雷达点云信息进行交通参与物信息提取,形成驾驶环境信息流; 步骤二、人机混合增强感知系统内参数据流和信息流,人机混合增强感知系统框架包括第二步中构建的人机混合增强感知模型和第三步构建的可解释在线人机融合感知知识库,本步骤整合人机混合增强感知系统内部各个模块之间的数据流和信息流,这些数据流和信息流包括在线的驾驶人感知模型数据流和机器感知模型数据流以及离线的感知模型知识信息流和感知图谱知识信息流; 步骤三、人机混合增强感知可解释性评价信息流,系统可解释性定义为系统具备明确的物理含义的性能,如下式所示: ArgmaxEQE|M,H,D,T1 式中,Q表示一个解释性的评价方程;E表示实现可解释性的具体方法;M表示待解释的模型参数;H表示驾驶人模型参数;D表示驾驶试验的结果数据;T表示进行的驾驶任务,公式1表示可解释性的本质是寻求一种解释方法:该方法使得给定特定的数据和针对于某种特定的任务,特定驾驶人拥有对于特定的模型最大程度上的理解; 第二步、构建人机混合增强感知模型,具体步骤如下: 步骤一、基于多传感器融合的机器感知模型,本步骤首先接收第一步中步骤一输出的驾驶环境数据流和信息流,并根据主车尺寸和传感器安装位置在三维空间中重建周围环境中交通参与物及道路,还原驾驶环境,具体如下: 本步骤首先通过第一步中步骤一输出的驾驶环境数据流和信息流建立状态方程对交通参与物进行分析,然后基于上一时刻的交通参与物信息对当前时刻的交通参与物的状态进行预测,根据当前时刻传感器数据更新当前时刻的交通参与物的状态来不断更新检测目标的状态,其中当前时刻的交通参与物的状态的预测和更新的公式分别如下式所示: St=HtPtHtT+R Pt'=1-KtHtPt 式中,xt表示拓展卡尔曼滤波预测的t时刻的状态向量;ut表示拓展卡尔曼滤波预测的t时刻的控制向量;Ft表示状态转换矩阵;Bt表示t时刻的控制输入;wt表示t时刻的具有零均值的状态向量的噪声项;Qt表示t时刻的噪声项的协方差矩阵;xt表示拓展卡尔曼滤波输出的t时刻的状态变量;yt表示t时刻传感器输入的状态向量;Pt表示拓展卡尔曼滤波预测的t时刻的系统状态的不确定性程度,用状态向量的协方差表示;Pt表示拓展卡尔曼滤波输出的t时刻的系统状态的不确定性程度;Ht表示t时刻的状态空间到测量空间的映射矩阵;R表示测量值的不确定度矩阵,由传感器的厂家提供; 对于当前时刻下由于传感器感知范围有限而未感知到的交通参与物,以拓展卡尔曼滤波预测的状态向量为输出值进行交通参与物信息输出; 步骤二、基于情境感知理论的驾驶人感知模型; 步骤三、人机感知一致性对比模型,在本步骤中,通过对比驾驶人和人机共驾系统的感知结果,实现人机感知一致性; 步骤四、人机融合感知输出模型,通过本步骤的计算形成人机混合增强感知模型的输出; 第三步、构建可解释在线人机融合感知知识库,人机融合感知知识库中包含感知图谱知识和感知模型知识两部分,感知图谱知识是第二步中输出的人机融合感知图谱经筛选后记录的原始数据知识,感知模型知识是记录第二步中使用的人机混合增强感知模型的系统决策过程的知识,在本步中,首先搭建起人机融合感知知识库系统框架,然后根据第二步中步骤三输出的人机感知一致性对比结果以及第二步中步骤四输出的人机融合感知模型输出模型进行人机融合感知知识库搭建和在线更新,具体步骤如下: 步骤一、人机融合感知知识库系统框架,根据人机融合感知知识库的可解释性需求和使用要求,采用有限状态机FSM来搭建起人机融合感知知识库系统框架,FSM对各类信息进行分析和处理,并结合经验来做出行为决策,人机融合感知知识库中因根据场景的不同由数个FSM组成,FSM中每一个状态由两部分构成,分别为语义化知识和人机混合增强感知模型参数,其中语义化知识经由聚类的方法得到,用于进行模型的可解释性分析,语义化知识包括驾驶人、人机共驾系统和驾驶场景3部分,FSM所在的感知状态通过模糊规则的方法进行分类得到,模型参数根据FSM所处的状态人为设定的人机混合增强感知模型参数,输出到第二步中的各个步骤中用于决策运算; 为了保证人机融合感知知识库的完整性,将FSM适用的感知状态定义为有限全集U,将FSM中的第i个感知状态定义为Ai,感知状态数量为n,则感知状态需要满足下述公式: 公式7表示FSM中的每个不同的感知状态间不存在交叉部分,并且所有的感知状态覆盖了全部感知状态空间; 步骤二、感知模型知识,在本步骤中根据驾驶试验形成先验知识,并进行模仿学习,本步骤使得构建的在线人机融合感知知识库具有可解释性,具体过程如下所述: 首先通过多次驾驶试验采集人类驾驶人的决策轨迹序列D={τ1,τ2,…,τn},其中,每条决策轨迹τi表示一次人类驾驶人的驾驶过程的人机融合感知状态-人机融合感知知识库更新动作对序列,将人机融合感知状态作为特征、人机融合感知知识库更新动作作为标记,通过监督学习的方法将D作为训练数据集生成初始状态的人机融合感知知识库,为了使得生成的人机融合感知知识库具有普适性,通过选取多名平均水平的驾驶人进行驾驶任务采集训练数据集D; 步骤三、感知图谱知识; 步骤四、知识库更新机制,为了实现人机感知一致性,人机融合感知知识库在步骤二初步搭建之后保持更新以提高人机感知一致性,当接收到第二步中步骤四输出的人机融合感知图谱时,对人机融合感知知识库进行更新; 第四步、整合输出变量,整合系统的输出变量,并形成用于人机交互、人机共驾系统内部输出和可解释性检测,具体步骤如下: 步骤一、人机混合增强感知过程量整合,本步骤将第一步、第二步和第三步中所包含的所有模块的输入和输出按照时间对齐的方式进行整合,并根据各模块要求的输入输出关系,将整合的人机混合增强感知过程量分别输出到人机混合增强感知模型的对应模块中进行计算; 步骤二、可解释性在线评价整合,本步骤中通过整合在第一步中步骤三计算的人机混合增强感知可解释性评价数据流和在第三步中生成更新的人机融合感知知识库,形成可解释性检测接口,其中人机混合增强感知可解释性评价数据流客观地评价模型的可解释性,人机融合感知知识库供评价人员对人机混合增强感知模型的可解释性进行主观评价; 步骤三、人机融合感知图谱整合,本步骤整合在第二步中步骤四记录计算得到的人机融合感知图谱; 步骤四、人机混合增强感知在线输出整合,本步骤中,形成人机混合增强感知在线输出。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人吉林大学,其通讯地址为:130012 吉林省长春市朝阳区前进大街2699号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励