西北工业大学夏辰获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉西北工业大学申请的专利一种基于Transformer全局语义编码的眼动识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119479048B 。
龙图腾网通过国家知识产权局官网在2025-09-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411380959.2,技术领域涉及:G06V40/18;该发明授权一种基于Transformer全局语义编码的眼动识别方法是由夏辰;刘盼;韩军伟;钟文琦;王博宇;郭雷设计研发完成,并于2024-09-30向国家知识产权局提交的专利申请。
本一种基于Transformer全局语义编码的眼动识别方法在说明书摘要公布了:本发明涉及一种基于Transformer全局语义编码的眼动识别方法,涉及眼动识别领域。包括:根据不同的任务需求采集相应的眼动数据,构建眼动识别数据集;所述眼动数据集包括图像和观看图像对应的眼动数据;根据眼动数据中记录的注视点位置,对相关图像进行注视点处掩码处理,将掩码处理的图像和未被掩码图像作为Transformer模型的输入;对Transformer模型进行预训练;利用预训练的Transformer模型从每幅图像的所有注视点位置提取深层特征,基于深层特征预测基于图像的类别概率;整合基于图像的类别概率得到受试者的综合分类结果。有效解决了现有眼动识别方法对深层语义信息挖掘不足和无法捕捉全局依赖关系的问题。
本发明授权一种基于Transformer全局语义编码的眼动识别方法在权利要求书中公布了:1.一种基于Transformer全局语义编码的眼动识别方法,其特征在于,包括: 根据不同的任务需求采集相应的眼动数据,构建眼动识别数据集;所述眼动识别数据集包括图像和观看图像对应的眼动数据; 根据眼动数据中记录的注视点位置,对相关图像进行注视点处掩码处理,将掩码处理的图像和未被掩码图像作为Transformer模型的输入; 对Transformer模型进行预训练;具体为: 在训练开始前,使用一个预先训练的离散变分自编码器DVAE处理整个训练集,将每个图像块转换成一个固定长度的视觉标记向量; 在训练过程中,Transformer模型利用其自注意力机制处理掩码和未掩码图像块的混合信息,通过理解图像的上下文来预测被掩码区域的内容;模型的输出和对应的视觉标记之间的差异通过交叉熵损失进行量化,再最小化这个损失来调整其参数,优化预测能力; 利用预训练的Transformer模型从每幅图像的所有注视点位置提取深层特征,基于深层特征预测基于图像的类别概率; 整合基于图像的类别概率得到受试者的综合分类结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西北工业大学,其通讯地址为:710072 陕西省西安市碑林区友谊西路127号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励