华中师范大学魏艳涛获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华中师范大学申请的专利一种基于多视觉线索融合的在线学习投入识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115424336B 。
龙图腾网通过国家知识产权局官网在2026-03-31发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210936778.8,技术领域涉及:G06V40/18;该发明授权一种基于多视觉线索融合的在线学习投入识别方法是由魏艳涛;高洁;胡美佳;姚璜;邓伟;徐家臻设计研发完成,并于2022-08-05向国家知识产权局提交的专利申请。
本一种基于多视觉线索融合的在线学习投入识别方法在说明书摘要公布了:本发明公开了一种基于多视觉线索融合的在线学习投入识别方法,首先本发明面向大规模在线学习投入感知需求,从多视觉线索角度出发,挖掘在线学习投入的关联视觉线索,构建在线投入多维细粒度表征模型;其次,将时间序列的特征学习问题转化为基于图的特征学习问题,提出基于互信息正则化的图网络模型,同时,为本发明所采用的机器学习方法提供训练支持,构建了基于多视觉线索的学习投入感知数据库;最后构建融合多视觉线索的细粒度学习投入识别方法,并在此基础上设计基于投入图的粗粒度学习投入识别方法整合细粒度变长学习投入序列,最终实现多粒度在线学习投入识别,满足实际应用中多层次、多阶段的学习投入感知需求。
本发明授权一种基于多视觉线索融合的在线学习投入识别方法在权利要求书中公布了:1.一种基于多视觉线索融合的在线学习投入识别方法,其特征在于,包括如下步骤: 步骤1,从多视觉线索角度出发,构建基于多视觉线索的学习投入感知数据库; 步骤2,提取多视觉线索数据,进行学习投入感知的视觉线索分析,基于多视觉线索从不同维度构建在线学习投入表征概要模型,进行基于多视觉线索的多维投入特征提取; 在线学习投入表征概要模型的具体构建步骤如下: A.图构建 给定一个动态输入序列,首先构造一个无向图来获取其中的学习投入特征,其中是节点,是所有节点之间的边所构成的集合,邻接矩阵表示无向图中节点的邻接关系;其次,为了通过图结构获取动态信息,将序列中的片段或帧转化为图中的节点,用表示,每一个节点都可用一个特征向量与之关联,表示特征维数,邻接矩阵中节点间的权重通过学习的方式得到; B.可学习图网络 所采用的图网络模型具体包括如下四个部分; 1非线性图卷积 首先定义图卷积操作,其定义为: 3 其中表示层数,为第层的输入,表示第层上多层感知机,是非线性激活函数,是待学习的邻接矩阵,表示图卷积层,ReLu是非线性激活函数; 2图Inception 给定输入,则图Inception可表示为: 4 其中和是两个不同的图卷积操作,是池化操作,图Inception由两个图卷积层和一个池化层拼接而成; 3可学习池化 采用可学习的池化方法,对层设计池化方法,具体计算公式如下: 5 其中为池化向量,是可学习的池化参数,hG是池化层输出; 4目标函数 图分类损失可使用分类问题中常见的交叉熵损失进行定义,具体计算公式如下: 6 其中是对第个输入序列对应的真实投入测量结果,为模型对第个输入序列输出的投入测量预测结果,即模型的输出; 图结构学习损失的设计是为了方便学习池化向量和邻接矩阵,其定义为: 7 其中表示元素乘积,是元素均为1的向量,,和分别控制各部分的权重,结构矩阵定义为: 8 其中,i,j表示节点序号,可以迫使时间上相邻的节点有更强的关联; 为了得到紧致的表示,定义图表示损失为: 9 其中,N表示模型的输入,是权重系数,是互信息,为阶矩阵表示Renyi熵,因此整体最优化目标函数为: 10 其中,表示其它待学习的参数; 步骤3,采用深度学习的方法融合步骤2得到的投入特征,然后将融合后的特征输入到深度卷积网络进行认知投入识别,进一步通过Grad-CAM方法感知学习者在不同维度下的细粒度在线学习投入水平。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华中师范大学,其通讯地址为:430079 湖北省武汉市洪山区珞瑜路152号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励