Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 湖北文理学院陈运星获国家专利权

湖北文理学院陈运星获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉湖北文理学院申请的专利基于多模态多尺度特征融合的驾驶人注意力焦点预测方法和系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120544168B

龙图腾网通过国家知识产权局官网在2026-01-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510573908.X,技术领域涉及:G06V20/59;该发明授权基于多模态多尺度特征融合的驾驶人注意力焦点预测方法和系统是由陈运星;袁星宇;魏长银;杨智;余果设计研发完成,并于2025-05-06向国家知识产权局提交的专利申请。

基于多模态多尺度特征融合的驾驶人注意力焦点预测方法和系统在说明书摘要公布了:本发明提供基于多模态多尺度特征融合的驾驶人注意力焦点预测方法和系统,包括:多模态数据采集与预处理;采用多分支卷积神经网络CNN,分别从多模态数据中提取多尺度特征,然后对提取的特征进行融合,输出多尺度融合特征图;通过自注意力机制捕获空间依赖关系,并嵌入位置编码保留几何信息;再通过ConVLSTM建模时序动态连续帧的融合特征堆叠为时序序列作为输入,通过粗粒度预测头,定位高风险区域;通过细粒度预测头,输出像素级注意力热力图,精确标注焦点区域;设计损失函数进行训练;利用训练好的整体网络模型实现驾驶人注意力焦点预测。本发明兼顾精度与效率,显著提升了驾驶人注意力焦点预测模型的泛化能力和实用性。

本发明授权基于多模态多尺度特征融合的驾驶人注意力焦点预测方法和系统在权利要求书中公布了:1.基于多模态多尺度特征融合的驾驶人注意力焦点预测方法,其特征在于,包括如下步骤: 步骤1,多模态数据采集与预处理,所述多模态数据包括原始RGB图像,语义分割图像,深度图像和光流图像; 步骤2,采用多分支卷积神经网络CNN,分别从原始RGB图像、语义分割图像、深度图像和光流图像中提取多尺度特征,然后对提取的特征进行融合,输出多尺度融合特征图; 多尺度融合特征图的计算方式如下: F融合=SigmoidWcFRGB⊙WdFDepth+SoftmaxFTFlowFSemantic 其中,F融合为融合后的特征图,和Wd为通道注意力权重矩阵,通过SE模块得到,⊙为矩阵乘法;特征与深度特征,表征RGB-深度特征关联;和分别为光流特征与语义特征,表征运动-语义关联,Sigmoid为激活函数,Softmax为归一化指数函数; 对RGB特征与深度图像特征进行通道注意力加权时,首先通过通道注意力模块对两者的特征图进行全局池化和权重计算,动态增强包含空间距离敏感信息的通道权重,将加权后的特征融合; 对于从光流图像提取的光流网络提取运动信息,通过可变形卷积将光流预测的偏移量应用于语义特征,动态调整其空间采样位置以对齐运动与语义关联; 步骤3,将多尺度融合特征图作为输入,通过自注意力机制捕获空间依赖关系,并嵌入位置编码保留几何信息;再通过ConVLSTM建模时序动态连续帧的融合特征堆叠为时序序列作为输入,通过粗粒度预测头,定位高风险区域;通过细粒度预测头,输出像素级注意力热力图,精确标注焦点区域; 步骤4,设计损失函数对步骤2-步骤3构成的整体网络模型进行训练; 步骤5,利用训练好的整体网络模型实现驾驶人注意力焦点预测。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人湖北文理学院,其通讯地址为:441053 湖北省襄阳市襄城区隆中路296号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。