吉林大学黄星雷获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉吉林大学申请的专利一种基于深度学习的矿物自动分割方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120411139B 。
龙图腾网通过国家知识产权局官网在2025-09-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510926752.9,技术领域涉及:G06T7/11;该发明授权一种基于深度学习的矿物自动分割方法是由黄星雷;郭宇航;潘保芝;张丽华;王欣茹设计研发完成,并于2025-07-07向国家知识产权局提交的专利申请。
本一种基于深度学习的矿物自动分割方法在说明书摘要公布了:本发明公开了一种基于深度学习的矿物自动分割方法,所述方法包括:图像的预处理,根据矿物化学性质和物理特征将QEMSCAN图像中的多种矿物进行合并;深度学习模型的训练与标签制作,将页岩SEM图像切割成图片,作为训练集、验证集和测试集,QEMSCAN图像切割成图片,作为标签,输入到Swin‑Transformer模型中进行训练,用验证集模型调节参数,测试集测试模型分割矿物精度;使用Swin‑Transformer模型分割矿物前建立对应的函数关系式将SEW图像的灰度和CT图像灰度校正到一致,再对页岩CT图像矿物进行分割,最后统计分割后各矿物体积分数与矿物X射线衍射分析报告中的质量分数转换为的体积分数对比,验证模型分割的矿物结果是否准确。本发明能够实现对矿物图像做出合理的分割。
本发明授权一种基于深度学习的矿物自动分割方法在权利要求书中公布了:1.一种基于深度学习的矿物自动分割方法,其特征在于,所述方法包括以下步骤: 步骤一、图像的预处理,根据矿物化学性质和物理特征将QEMSCAN图像中的多种矿物进行合并; 步骤二、深度学习模型的训练与标签制作,将页岩SEM图像切割成256×256像素大小的图片,作为训练集、验证集和测试集,QEMSCAN图像切割成同样大小和数量的图片,作为标签,输入到Swin-Transformer模型中进行训练,用验证集模型调节参数,测试集测试模型分割矿物精度; 步骤三、将步骤二中测试精度达标的Swin-Transformer模型用于页岩CT图像的矿物分割,使用Swin-Transformer模型分割矿物前建立对应的函数关系式将SEW图像的灰度和CT图像灰度校正到一致,再对页岩CT图像矿物进行分割,最后统计分割后各矿物体积分数与矿物X射线衍射分析报告中的质量分数转换为的体积分数对比,验证模型分割的矿物结果是否准确; 步骤二中,深度学习模型的训练与标签制作包括: S21、制作训练集、验证集、测试集和标签; 将经过步骤一处理后的QEMSCAN图像作为标签图像和与之对应的SEM图像作为样本,分别将QEMSCAN图像和SEM图像切割成256×256像素大小的图片共432张,其中400张作为训练集,剩余的32张一半作为验证集,另一半作为测试集,还需建立字典将QEMSCAN图像中的每个颜色的RGB值与单一数值建立映射关系; S22、Swin-Transformer模型搭建与训练; Swin-Transformer结构包括: S221、输入分块: Swin-Transformer将输入图像分割成固定大小的小块; 每个小块被展平并通过线性层映射为固定维度的特征向量; S222、分层设计: Swin-Transformer采用层次化的特征提取方式,整个网络分为4个阶段,每个阶段逐步减少空间分辨率并增加特征维度; 在每个阶段之间,通过分块合并操作将相邻的2×2像素大小的小块合并为一个更大的小块,从而降低分辨率,同时特征维度翻倍; S223、Swin-Transformer模块; 每个阶段由若干个Swin-Transformer模块组成,每个模块包含以下子模块: LayerNormalization,即LN:对输入特征进行归一化; WindowMulti-headSelf-Attention,即W-MSA:在固定大小的窗口内计算多头自注意力; ShiftedWindowMulti-headSelf-Attention,即SW-MSA:通过窗口移位,在下一层建立跨窗口的连接; 多层感知器,即MLP:包含两个全连接层,中间使用GELU激活函数; 残差连接:每个子模块后都有残差连接; S224、窗口自注意力机制: W-MSA:将输入特征划分为多个不重叠的窗口,仅在每个窗口内部计算自注意力; SW-MSA:通过将窗口位置移位,在相邻层之间引入跨窗口的连接,从而实现全局信息的传递; S225、相对位置编码: Swin-Transformer在注意力计算中引入了相对位置偏置,而不是绝对位置编码; 对于窗口内的两个位置i,j和k,l,注意力计算公式为: 公式5:; 式中Attention代表注意力机制,让模型动态关注输入数据的不同部分的内容;Q代表查询矩阵,用于与其他位置的Key进行匹配,决定哪些位置的信息对当前小块更重要;K代表键矩阵,与Q进行点积运算,计算每个位置之间的相似度;V代表值矩阵,V是注意力机制输出时的加权内容,最终结果是由注意力权重对V进行加权求和得到的;T代表矩阵转置;d代表特征维度;B代表相对位置偏置,使得模型能够感知空间位置信息;Softmax代表一种常用激活函数,用于多分类问题,将一个实数向量转换为概率分布,使得每个元素的值在0到1之间,并且所有元素的和为1; S226、输出: 在最后一个阶段结束后,特征图经过全局平均池化,然后通过线性层输出结果; 根据上面Swin-Transformer结构搭建模型,将准备好的256×256像素大小的400张SEM图片作为训练集和与之对应的QEMSCAN图片作为标签输入到Swin-Transforer模型中进行训练,通过验证集对模型进行调参,最后用测试集测试模型的分割精度是否达标。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人吉林大学,其通讯地址为:130012 吉林省长春市前进大街2699号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。