长春理工大学宁春玉获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉长春理工大学申请的专利基于多模态特征融合的阿尔兹海默症分类模型的构建方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120913823B 。
龙图腾网通过国家知识产权局官网在2025-12-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511445237.5,技术领域涉及:G16H50/20;该发明授权基于多模态特征融合的阿尔兹海默症分类模型的构建方法是由宁春玉;赵连喜;武现阳;冯磊;木尼热·吐尔地;陈飞宇;石乐民;刘传志;李朝辉设计研发完成,并于2025-10-11向国家知识产权局提交的专利申请。
本基于多模态特征融合的阿尔兹海默症分类模型的构建方法在说明书摘要公布了:基于多模态特征融合的阿尔兹海默症分类模型的构建方法,涉及医学图像处理领域。解决了现有技术中基于深度学习的阿尔兹海默症诊断方法存在的多模态数据利用不充分、模型复杂度高、医疗成本高等问题;本发明所述以sMRI图像和临床量表数据作为输入数据,3DMLP‑Mixer获取图像细节信息和空间信息,使用门控循环单元GRU提取行为认知信息,利用ACF模块将行为认知信息与3DMLP‑Mixer提取的图像信息进行融合,从而提升模型对患者的识别能力及跨数据集泛化性能。本发明还适用于阿尔茨海默症图像处理领域中。
本发明授权基于多模态特征融合的阿尔兹海默症分类模型的构建方法在权利要求书中公布了:1.基于多模态特征融合的阿尔兹海默症分类模型的构建方法,其特征在于,所述方法包括以下步骤: 步骤1、从阿尔兹海默症神经成像数据集中获取sMRI图像、社会人口学特征、简易精神状态量MMSE以及临床痴呆评定量表CDR中的数据,并进行预处理,基于预处理后的数据构建阿尔兹海默症分类模型所需的多模态数据集,所述阿尔兹海默症神经成像数据集包括ADNI‑1数据集,ADNI‑2数据集,ADNI‑3数据集; 步骤2、将步骤1获取的sMRI图像划分为训练集和测试集; 步骤3、基于步骤2划分好的sMRI图像构建3D MLP‑Mixer模型,用于提取sMRI图像全局细节信息及空间邻域信息; 步骤4、基于步骤1获取的社会人口学特征、简易精神状态量MMSE以及临床痴呆评定量表CDR中的数据构建门控循环单元GRU,用于捕捉不同量表项或评分间的关联信息和复杂的跨模态关系; 步骤5、构建基于注意力引导的共现融合模块ACF,基于步骤3的3D MLP‑Mixer模型和步骤4的门控循环单元GRU得到最终的融合特征; 步骤6、构建GA‑GMixer模型,组合步骤3的3D MLP‑Mixer模型、步骤4的门控循环单元GRU及步骤5的共现融合模块ACF,通过分类器完成分类任务; 步骤7、在阿尔兹海默症神经成像数据集上训练和验证GA‑GMixer模型,在ADNI‑2数据集和ADNI‑3数据集上进行泛化性验证,最终得到阿尔兹海默症分类模型; 步骤3中构建3D MLP‑Mixer模型的方法为: 将经过预处理的尺寸为121×145×121的3D sMRI图像均匀划分成大小为25×25×25的patch,使用一个线性层将输入的每个patch的特征嵌入到2D特征矩阵,将得到的特征矩阵放入GNN‑Mixer模块与Mixer Layers模块中进行变换; 将得到的特征矩阵放入GNN‑Mixer模块与Mixer Layers模块中进行变换的方法为:将GNN‑Mixer模块加入GNN Layer模块将其与Mixer Layer模块中的token‑mixer模块相结合,利用GNN的消息传递机制的特性增强模型对局部信息的交互; 所述GNN‑Mixer模块与Mixer Layers模块中还设置有跳跃连接,用于将低层基本特征传递至深层; 构建三级GNN‑Mixer编码器层即三个GNNLayer子模块,GNN‑Mixer编码器的输入通道维均为256,patch数在不同层扩展到512,利用邻接矩阵与GNNLayer子模块实现空间关系建模,并结合FeedForward进行特征混合; 所述GNNLayer子模块,用于在patch级别进行图结构的消息传递,它接收形状为batch,patch数,通道数的节点特征和形状为patch数,patch数的邻接矩阵,通过矩阵乘法实现节点间特征聚合,然后使用线性映射调整通道维度,从而在patch特征中显式建模空间邻接关系; 即每个模块先调用GNNLayer实现patch间信息传播,再使用FeedForward进行token混合,然后转置维度并再次通过FeedForward进行channel混合,实现跨patch与跨通道的双向特征交互; 在编码器输出的高层特征基础上,添加了bottleneck2瓶颈层,该瓶颈层通过GNN‑Mixer模块进一步在全局范围融合跨patch信息,使高层特征在进入解码阶段前具备充分的全局感知能力; 构建三级解码器,每个解码器不仅对输入特征进行处理,还与对应编码器层的输出相加,实现跳跃连接,以融合多尺度信息并恢复空间细节; 步骤5中构建基于注意力引导的共现融合模块ACF的方法为: 步骤5.1、导入子单元:用于构建多模态融合模块的基础库,包括torch、torch.nn、torch.nn.functional,并引入UMixer与GRUModel类作为子网络,以实现图像与量表两种模态的特征获取; 步骤5.2、定义了FusionModel类,初始化时组合了UMixer图像分支与GRU量表分支,并定义了融合后的全连接分类层; 步骤5.3、在前向传播中,将MRI影像输入UMixer得到batch,256的图像特征,将量表输入GRUModel得到batch,256的量表特征; 步骤5.4、基于步骤5.3得到的图像与量表特征,初始化一个256,256大小的零矩阵作为共现矩阵,并遍历batch中样本,通过计算图像与量表特征的外积累加到共现矩阵中,用于统计两个模态间的特征共现关系; 步骤5.5、在步骤5.4生成的共现矩阵基础上,构造可训练的注意力权重矩阵,并在列维度使用softmax进行归一化,得到模态间对齐的注意力分布; 步骤5.6、使用步骤5.5得到的注意力权重对图像特征进行加权,映射到量表特征空间; 同时对量表特征进行加权,映射到图像特征空间,实现双向特征交互; 步骤5.7、将步骤5.6得到的两组加权特征在通道维度拼接形成batch,512,输入全连接层映射到类别数维度2,输出最终分类结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人长春理工大学,其通讯地址为:130022 吉林省长春市卫星路7089号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励