电子科技大学白登辉获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉电子科技大学申请的专利一种基于深度神经网络的大脑认知系统建模方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117010464B 。
龙图腾网通过国家知识产权局官网在2025-07-22发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311105766.1,技术领域涉及:G06N3/06;该发明授权一种基于深度神经网络的大脑认知系统建模方法是由白登辉;张婷婷;张秋竹;李凌设计研发完成,并于2023-08-30向国家知识产权局提交的专利申请。
本一种基于深度神经网络的大脑认知系统建模方法在说明书摘要公布了:该发明公开了一种基于深度神经网络的大脑认知系统建模方法,属于人工智能和神经生物学领域。针对背景和已有研究成果的不足之处,本文提出了一种基于深度神经网络的认知系统建模方法,旨在解决现有技术模型不符合生物脑认知系统运行机制、建模没有考虑认知系统中的高维信息、如何利用包含图像信息的认知任务时序数据集训练模型、以及现有技术推测出的模型表征与生物脑表征还存在较大差距的问题。
本发明授权一种基于深度神经网络的大脑认知系统建模方法在权利要求书中公布了:1.一种基于深度神经网络的大脑认知系统建模方法,该方法包括: 步骤1:搭建认知系统模型; 使用ImageNet数据集预训练一个完整的CNNs,CNNs采用AlexNet模型架构;完成后舍去全连接层,依次在卷积层后添加展平层和基于连续时间动力系统的循环层,组成认知系统模型;其中卷积层的输出为矩阵Cm×m,展平层用于将Cm×m展平为一维向量,用以输入给循环层;上述基于连续时间动力系统的循环层的动力学方程为: 循环层的输出方程为:其中τ为时间常数,rt为神经元在时间t的激活值,xt为循环层的输入,br为偏置项,yt为循环层的输出,f·为ReLu激活函数,Wr,Wx,wfb,分别为对应变量的连接矩阵; 分别采用全零初始化、均匀随机初始化或正态分布初始化方法,初始化连接矩阵Wr,Wx,wfb, 循环层由输入层,隐藏层和输出层组成;其中输入层神经元数量为m×m+1,其中的m×m个神经元用于接收展平层输入的一维向量;最后1个神经元L用于接收状态指令,当L接收2时表示模型处于认知任务的反应阶段,接收1时表示模型处于认知任务的刺激展示阶段,接收0时表示处于认知任务的间隔阶段;隐藏层神经元数量比输入层神经元数量多u个,定义为i=m×m+1+u个神经元;输出层神经元数量为3,输出3种标签,定义为1,0,-1;1表示在认知任务反应阶段输出为匹配、-1表示在认知任务反应阶段输出为不匹配、0表示认知任务非反应阶段的输出标签,非反应阶段表示刺激展示阶段和间隔阶段; 步骤2:训练模型,提取模型激活值; 抽象概括生物实验中采用的认知任务实验范式,用于训练认知系统模型; 下载认知任务刺激图像集以及相应的神经响应数据集;其中图像集为包含N种类型的图像集,对其中1种类型n,随机抽取3张图像,定义为刺激1,刺激2,刺激3;训练时,模型的输入依次为: 刺激1输入到认知系统模型的卷积层,依次输入t1τ次,同时每次输入时神经元L接收1,此阶段为刺激展示阶段,t1为认知任务实验范式中此阶段持续的时间; 数值0输入到认知系统模型的卷积层,依次输入t2τ次,同时每次输入时神经元L接收0,此阶段为间隔阶段,t2为认知任务实验范式中此阶段持续的时间; 刺激2输入到认知系统模型的卷积层,依次输入t3τ次,同时每次输入时神经元L接收1,此阶段为刺激展示阶段,t3为认知任务实验范式中此阶段持续的时间; 数值0输入到认知系统模型的卷积层,依次输入t4τ次,同时每次输入时神经元L接收0,此阶段为间隔阶段,t4为认知任务实验范式中此阶段持续的时间; 刺激3输入到认知系统模型的卷积层,依次输入t5τ次,同时每次输入时神经元L接收1,此阶段为刺激展示阶段,t5为认知任务实验范式中此阶段持续的时间; 数值0输入到认知系统模型的卷积层,输入1次,同时神经元L接收2,此阶段为反应阶段; 上述输入流程中: 若刺激3和刺激1相同,则模型反应阶段应该输出标签1,表示匹配;若刺激3和刺激1不相同,则模型反应阶段应该输出标签-1,表示不匹配;在非反应阶段,模型应该输出标签0; 对于N种类型的图像集中的每一种类,都进行d次上述随机抽取,组成d个上述任务,用于训练认知系统模型;训练时,冻结卷积层的权重,只训练循环层的权重; 训练时,设定批大小和迭代次数;采用如下公式方法对循环层进行迭代更新,公式为:其中θk表示第k次迭代时循环层的参数集合,Ir表示网络学习率,Jθk表示损失函数;网络学习率控制着每次迭代更新参数的幅度,过高或过低的学习率都会降低模型的训练效果,对学习率进行衰减,以此提高网络训练效率,网络学习率Ir衰减公式为 迭代训练完成后,对于一种类型n,将与生物实验中生物被试接收的相同刺激1、刺激2、刺激3的任务输入到认知系统模型中,定义为类型n的第q次任务,提取对应的循环层神经元的激活值t为单个任务持续的时间,t=t1+t2+t3+t4+t5; 步骤3:计算认知系统模型与生物脑的相似性; 计算与生物被试相同刺激的总共Q次任务激活值的均值作为类型n的整体激活值计算认知系统模型的表征不相似矩阵,记为RN×N,其中的元素n1,n2∈[1,N],Pearson·为皮尔森相关系数;根据下载的任务刺激图像集以及相应的神经响应数据集,计算生物脑的RDM,记为SN×N,其中的元素分别表示类型n1,类型n2对应的生物脑神经响应矩阵;j为生物脑神经响应矩阵的维度; 其中矩阵RN×N和SN×N均为对称矩阵,对角线为0;将RN×N和SN×N的下三角元素展开为一维向量,计算两个向量的Pearson相关系数与斯皮尔曼相关系数,并求得这两个相关系数的均值,得到最终的相似性。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人电子科技大学,其通讯地址为:611731 四川省成都市高新区(西区)西源大道2006号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。