Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 合肥工业大学吴克伟获国家专利权

合肥工业大学吴克伟获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉合肥工业大学申请的专利基于视线方向时间关系学习的危险驾驶行为检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115661800B

龙图腾网通过国家知识产权局官网在2026-01-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211366926.3,技术领域涉及:G06V20/59;该发明授权基于视线方向时间关系学习的危险驾驶行为检测方法是由吴克伟;彭梦昊;谢昭;欧阳梁;张睿萱;陈嘉豪设计研发完成,并于2022-11-01向国家知识产权局提交的专利申请。

基于视线方向时间关系学习的危险驾驶行为检测方法在说明书摘要公布了:本发明公开了一种基于视线方向时间关系学习的危险驾驶行为检测方法。本发明设计卷积神经网络分别估计驾驶员头部朝向和双眼朝向。针对可能出现的头部朝向和双眼朝向不一致的情况,设计头部朝向和双眼朝向联合网络,估计驾驶员视线方向。并针对在驾驶过程中,视线方向随着时间多变,而难以准确危险视线方向状态的问题,设计基于高斯时间权重来学习视线方向的时间关系,构建视线方向的时间定位网络,实现可靠的危险视线方向的时间定位。当危险视线方向的持续时间超过阈值时,对驾驶员进行安全警告。本发明能够处理头部和双眼朝向不一致的情况,也能够鲁棒处理不同的视线方向时间变化过程,可以有效实现危险驾驶行为检测。

本发明授权基于视线方向时间关系学习的危险驾驶行为检测方法在权利要求书中公布了:1.一种基于视线方向时间关系学习的危险驾驶行为检测方法,其特征在于:在驾驶员的驾驶过程中,摄像头持续拍摄包含驾驶员头部的视频,对视频连续采帧;根据视频帧序列,估计驾驶员的视线状态时间定位,对驾驶员的危险驾驶行为进行检测,具体包括如下步骤: 步骤1、输入安全驾驶数据集,进行头部朝向估计网络训练,获得头部朝向估计网络参数模型; 步骤2、输入安全驾驶数据集,进行双眼视线方向估计网络训练,获得双眼视线方向估计网络参数模型; 步骤3、输入安全驾驶数据集,进行头部与双眼联合视线方向估计网络训练,获得头部与双眼联合视线方向估计网络参数模型; 步骤4、输入安全驾驶数据集,进行视线状态时间定位网络训练,获得视线状态时间定位网络参数模型; 步骤5、在驾驶员的驾驶过程,估计驾驶员的视线状态时间定位,对驾驶员的危险驾驶行为进行检测; 步骤1所述的输入安全驾驶数据集,进行头部朝向估计网络训练,获得头部朝向估计网络参数模型,具体包括以下步骤: 步骤1-1:输入头部检测数据集,训练基于Yolov5的头部检测网络模型; 步骤1-2:输入安全驾驶训练集,使用步骤1-1中训练好的头部检测网络模型对输入的图像进行头部区域检测,裁剪后获得头部区域图像; 步骤1-3:对步骤1-2获得的头部区域图像进行归一化处理,使其尺寸统一,并获得图像中心点,用图像中心点表示头部中心点,以头部中心点为坐标原点,水平方向为x轴,垂直方向为y轴,建立直角坐标系; 步骤1-4:将归一化后的头部区域图像通过头部朝向估计网络,头部朝向估计网络由ResNet-34网络和三个全连接层构成,得到头部朝向向量,、分别表示横坐标与纵坐标; 步骤1-5:计算步骤1-4中得到的头部朝向向量与真实的向量之间的损失函数,、分别表示横坐标与纵坐标,损失函数公式如下: , 步骤1-6:使用步骤1-5的损失函数,对步骤1-4中的头部朝向估计网络进行训练,获得头部朝向估计网络参数模型; 步骤3中所述的输入安全驾驶数据集,进行头部与双眼联合视线方向估计网络训练,获得头部与双眼联合视线方向估计网络参数模型,具体包括以下步骤: 步骤3-1:输入安全驾驶训练集,使用步骤1-1中训练好的头部检测网络模型对输入图像进行头部区域检测,裁剪后获得头部区域图像; 步骤3-2:对步骤3-1中获得的头部区域图像,使用步骤1中训练好的头部朝向估计网络模型,利用步骤1-4的方法,提取头部朝向向量; 步骤3-3:对步骤3-1中获得的头部区域图像,使用步骤2中训练好的双眼视线方向估计网络模型,利用步骤2的方法,在头部区域图像中提取双眼视线方向向量; 步骤3-4:将步骤3-2中获得的头部朝向向量与步骤3-3中获得的双眼视线方向向量通过一个含有一个隐藏层的多层感知器,输出结果表示为归一化的头部与双眼联合视线方向向量,、分别表示横坐标与纵坐标: , 步骤3-5:计算步骤3-4中得到的头部与双眼联合视线方向向量与真实的向量之间的损失函数,损失函数公式如下: , 步骤3-6:使用步骤3-5中的损失函数,对头部与双眼联合视线方向估计网络进行训练,获得头部与双眼联合视线方向估计网络参数模型。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人合肥工业大学,其通讯地址为:230009 安徽省合肥市包河区屯溪路193号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。