Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 电子科技大学白登辉获国家专利权

电子科技大学白登辉获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉电子科技大学申请的专利一种深度神经网络拓扑结构约束学习方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119250146B

龙图腾网通过国家知识产权局官网在2025-07-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411401953.9,技术领域涉及:G06N3/08;该发明授权一种深度神经网络拓扑结构约束学习方法是由白登辉;李凌;张婷婷设计研发完成,并于2024-10-09向国家知识产权局提交的专利申请。

一种深度神经网络拓扑结构约束学习方法在说明书摘要公布了:本发明属于人工智能和神经生物学领域,具体涉及到一种深度神经网络拓扑结构约束学习方法。本发明首先采集被试rs‑fMRI数据并预处理,计算不同脑区之间的相关系数从而得到生物脑拓扑矩阵,并构建深度神经网络模型;然后使用生物脑拓扑结构约束神经网络的学习过程进而训练模型,并采用反向传播算法更新神经网络参数,而反向传播算法的损失函数同时包含负对数似然损失与拓扑矩阵相似度损失,因此模型训练后会使神经网络的拓扑矩阵偏向于生物拓扑矩阵,从而实现将神经生理学记录直接整合到人工神经网络的技术。本发明填补了将神经生理学记录直接转化为人工神经网络改进的技术空白,从而提升神经网络的工程性能。

本发明授权一种深度神经网络拓扑结构约束学习方法在权利要求书中公布了:1.一种深度神经网络拓扑结构约束学习方法,其特征在于,具体步骤如下: 步骤1、获取生物脑拓扑矩阵数据并搭建深度神经网络模型; 对获取的静息态功能磁共振数据进行预处理;基于脑分区模板将预处理后的数据划分为m个脑区,2≤m≤116,通过计算不同脑区之间的皮尔逊相关系数得到生物脑拓扑矩阵Bm ×m;其中矩阵Bm×m中第i行第j列元素即第i个脑区与第j个脑区的皮尔逊相关系数的计算式为: 式中ti和tj分别为第i脑区与第j脑区的时间序列,与分别为第i脑区与第j脑区时间序列的平均值; 采用RNNs循环神经网络作为深度神经网络的模型,由输入层、隐藏层和输出层组成;其隐藏层的状态方程为: ct=Wihxt+bih+Whhrt-1+bhh,Rt=FhCt 输出层的输出方程为: yt=fyWyrt+by 其中ct为神经元在时间t的状态变量,Wih、Whh和Wy分别是输入层、隐藏层以及输出层的神经元连接权值矩,xt是RNNs在时间t的输入,rt是隐藏层在时间t的神经活动,bih、bhh和by分别是输入层、隐藏层以及输出层的的偏置项,yt是RNNs在时间t的输出,fh·和fy·分别是隐藏层和输出层的激活函数; 所述静息态功能磁共振数据为rs-fMRI数据;预处理依次为:去时间点、时间层矫正、头动矫正、空间标准化、平滑、去线性漂移和滤波; 步骤2、使用生物脑拓扑结构约束神经网络的学习过程进而训练模型; 将生物实验中采用的认知任务实验范式用于训练步骤1搭建的深度神经网络,以执行生命科学领域的工作记忆任务;训练时,深度神经网络的输入依次为: 随机生成数a输入到输入神经元N1,同时将0输入到神经元N2,此阶段为刺激展示阶段; 接着,随机生成数b输入到输入神经元N1,同时将0输入到神经元N2,此阶段为刺激展示阶段; 接着,随机生成数c输入到输入神经元N1,同时将1输入到神经元N2,此阶段为反应阶段; 上述输入流程中,相对应的模型正确输出为:若随机生成数c和随机生成数a相同,则模型反应阶段应该输出标签1,表示匹配;若随机生成数c和随机生成数a不相同,则模型反应阶段应该输出标签-1,表示不匹配;在刺激展示阶段,模型应该输出标签0; 随机生成d次上述随机生成数a、b、c,组成d个上述认知任务作为训练集用于训练神经网络; 同时,随机生成e次上述随机生成数a、b、c,组成e个上述认知任务作为测试集用于测试训练完成的神经网络的性能; 在使用d个上述认知任务作为训练集来训练神经网络时,使用反向传播算法更新神经网络参数,反向传播算法的损失函数同时包含负对数似然损失costtask与拓扑矩阵相似度损失costsimilarity,具体定义为: cost=costtask+αcostsimilarity costtask=logpyi|xi 其中,α为可调参数;pyi|xi表示神经网络输入为xi时,输出为正确输出yi的概率;为Bm×m矩阵的均值,为Whh矩阵的均值; 训练时,批大小为batch≥32,迭代次数为epoch≥100;迭代次数达到epoch后,则训练完成,分别将e个上述作为测试集的认知任务的输入数据输入到神经网络的输入层中,统计对应的神经网络实际输出等于正确输出的次数为corrt,则正确率为corrte;同时计算训练完成后的costsimilarity,作为神经网络与生物脑在拓扑结构上的相似性; 深度神经网络模型的具体训练目的:训练RNNs以执行生命科学领域的工作记忆任务,在网络的反向传播过程中,最小化负对数似然损失与拓扑矩阵相似度损失;并将最终训练得到的深度神经网络模型用于构建类脑模型,进行生物仿真实验。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人电子科技大学,其通讯地址为:611731 四川省成都市高新区(西区)西源大道2006号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。