大连理工大学李文耀获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉大连理工大学申请的专利基于可解释自编码器的多组学与表型关联挖掘方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115691677B 。
龙图腾网通过国家知识产权局官网在2026-02-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211134134.3,技术领域涉及:G16B40/20;该发明授权基于可解释自编码器的多组学与表型关联挖掘方法是由李文耀;林恺;高建;张强;何昆仑;石金龙设计研发完成,并于2022-09-16向国家知识产权局提交的专利申请。
本基于可解释自编码器的多组学与表型关联挖掘方法在说明书摘要公布了:本发明公开一种基于可解释自编码器的多组学与表型关联挖掘方法。首先搭建先验知识残差稀疏编码器,利用先验知识,将高维多组学特征编码为蕴含所有组学隐含关联的低维潜在表达。其次构造解码器将低维潜在表达重新生成高维特征,根据该高维特征与原多组学特征的差异建立损失函数。然后,增加基于加性特征归因的解释性分析模块,建立完整的可解释残差变分稀疏自编码器。再次,以低维表达为输入,建立残差神经网络,完成下游的分类或回归任务。最后,对可解释残差变分稀疏自编码器和残差神经网络分别进行训练,训练后的整个模型框架即可实现多组学与表型关联挖掘,其输入为多组学数据与先验知识,输出为神经元解释性评分和下游分类或回归任务的结果。
本发明授权基于可解释自编码器的多组学与表型关联挖掘方法在权利要求书中公布了:1.一种基于可解释自编码器的多组学与表型关联挖掘方法,其特征在于,步骤如下: 步骤1构造先验知识残差变分稀疏编码器采用先验知识与稀疏编码结合的形式将多组学高维数据进行变分编码,并添加残差连接改善整个自编码器模型的训练难度;先验知识残差变分稀疏编码器的输入为多组学数据和先验知识遮掩矩阵,输出为多组学数据的编码;具体如下: 首先,由先验知识遮掩矩阵基于全连接网络编码器,搭建稀疏编码器结构;在编码器上一层与下一层的连接中,传统的自编码器采用全连接的形式进行连接,如下式: y=fWTx+b 1其中y为下一层的输出向量,x为上一层的输入向量,W为神经网络该层权重矩阵,b为偏置向量,f为激活函数;在公式1的基础上引入了先验知识遮掩矩阵M;M为一个稀疏矩阵,其中的元素取值为0或1,在具有生物先验知识的信号通路中,取值为0则该条信号通路尚未打通,两者尚无已普及的联系,取值为1时说明目前现有知识通路是有联系的;引入M之后将公式1改进为下式: y=fM*WTx+b 2经过公式2的处理,全连接编码器被改进为先验知识稀疏编码器; 其次,添加隐空间概率分布机制,以构建先验知识变分稀疏编码器;该编码器先学习均值向量μ和方差向量σ,再由均值和方差结合高斯分布生成低维潜在表达z,具体如下式: z=u+σ∈ 3∈为从高斯分布N0,I中采样的一个随机向量,I为单位矩阵; 最后,添加多重残差连接机制,构造先验知识残差变分稀疏编码器;设编码器共有n层,在总输入到第一层输出,第一层输出到第二层输出,依此直至第n‑2层输出到n‑1层输出之间各添加残差连接机制;对于每一次残差连接,其原理基于下式: 代表残差模块的输出,xl为残差模块的输入,xlWs为恒等映射,Ws为匹配输入和输出维度的一个线性映射,F为需要学习的残差映射; 步骤2构建解码器与先验知识残差变分稀疏自编码器; 解码器输入为步骤1输出的多组学数据的编码,输出为重构特征xout;将解码器与步骤1建立的编码器耦合即可构建先验知识残差变分稀疏自编码器,经过训练后输出多组学的低维潜在表达;具体如下: 首先,建立全连接的解码器,解码器基于公式1的全连接网络构建,层数以及每层的节点数量与编码器相同,但是节点之间的连接不采用遮掩矩阵,各层之间也无残差连接机制; 其次,将解码器与步骤1的编码器进行耦合,构建先验知识残差变分稀疏自编码器; 最后,对该自编码器进行训练;训练的损失函数如下式: Loss=||xin‑xout||2+KL[Nu,σ,N0,I] 5xin为自编码器的输入,即多组学数据,KL为散度函数,px和qx两个不同的任意多项式,N为高斯函数;自编码器基于公式5和6进行训练,该训练与步骤3解释器一起进行,并依此实现自编码器深度学习模型的可解释性;此外,训练完成后的多组学低维潜在表达作为步骤4的输入进行多组学与表型的分类决策; 步骤3基于加性特征归因的解释器构造设f原是要解释的模型即自编码器,g是解释模型,关注一个局部特征x局,g使用一个简化的特征x局′通过映射函数使得x局=hx局′,从而确保gx局′≈f原hx局′;加性特征归因解释其为二元变量的线性函数,如下式: 其中M代表简化的特征数量,αi表示特征的效应值,将所有的特征效应值相加即可得到gx局′,使gx局′逼近f原hx局′即可通过解释模型对f原中的每一个特征进行解释;换言之,基于加性特征归因的解释器目的是构造一个足够接近f原的g,并通过公式7中的特征效应值α对特征的重要性进行解释,即计算α是解释器的最终目标; 明通过最小化目标函数ω计算α,目标函数如下式: 其中表示核函数,τg为正则项,L为平方损失函数;式8的意义为,g对f原的逼近是通过简化在输入空间中核函数加权的一组样本损失L而进行的;最小化ω后,g和f原实现拟合,并通过ρx局′α计算出特征效应值α,从而实现对各个特征的解释; 步骤4构建残差网络残差网络的输入为步骤2训练完成的多组学低维潜在表达输出为表型分类决策结果;使用的残差网络为一维残差网络,该残差网络由多个输入和输出维度不同的残差块组成;更具体地,每个残差块由两个卷积块顺序连接以及残差连接构成,残差连接源头是第一个卷积块的输入,目的是第二个卷积块输出,连接方式基于公式4,再加上池化层、四个残差网络模块、全局平局池化层以及全连接层共同组成残差网络,该残差网络经过训练即可实现表型分类决策。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人大连理工大学,其通讯地址为:116024 辽宁省大连市甘井子区凌工路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励