湖南中医药大学丁长松获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉湖南中医药大学申请的专利一种基于Transformer和卷积注意力机制的CT图像分割方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115908811B 。
龙图腾网通过国家知识产权局官网在2026-03-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211526001.0,技术领域涉及:G06V10/26;该发明授权一种基于Transformer和卷积注意力机制的CT图像分割方法是由丁长松;许志祥;黄辛迪;彭荧荧;李力松设计研发完成,并于2022-12-01向国家知识产权局提交的专利申请。
本一种基于Transformer和卷积注意力机制的CT图像分割方法在说明书摘要公布了:本发明公开了基于Transformer和卷积注意力机制的CT图像分割方法,包括以下步骤:S1,数据预处理模块:获取CT图像数据,按照体素值截断的方法过滤不相关区域,对过滤后的CT图像数据进行标准化处理,然后划分训练集、验证集和测试集;S2,CNN编码器模块:利用多层卷积操作,对CT图像进行初步编码,使用卷积注意力模块来实现注意力机制,对语义分割主要区域加入关注,获取CT图像的局部特征信息;S3,Transformer编码器模块:连接CNN编码器的后两层特征信息,传入到Transformer编码器进行处理,获取CT图像的全局特征信息,CT图像全局特征信息结果与从CNN编码器传入的后两层特征信息残差相加,增强CNN编码器后两层特征信息传递操作过程中损失的信息;S4,解码器模块:将Transformer编码器的输出信息还原至CNN编码器最后两层特征图大小,最后一层特征图经反卷积操作后与上一层输出的还原结果相加,再使用反卷积操作将相加结果还原到CNN编码器前两层特征图大小,并对应作跳跃连接,最后还原出带标签的CT图像。
本发明授权一种基于Transformer和卷积注意力机制的CT图像分割方法在权利要求书中公布了:1.一种基于Transformer和卷积注意力机制的CT图像分割方法,其特征在于,所述方法包括以下步骤: S1,数据预处理模块:获取CT图像数据,按照体素值截断的方法过滤不相关区域,对过滤后的CT图像数据进行标准化处理,然后划分训练集、验证集和测试集; S2,CNN编码器模块:利用多层卷积操作,对CT图像进行初步编码,使用卷积注意力模块来实现注意力机制,对语义分割主要区域加入关注,获取CT图像的局部特征信息; S3,Transformer编码器模块:连接CNN编码器的后两层特征信息,传入到Transformer编码器进行处理,获取CT图像的全局特征信息,CT图像全局特征信息结果与从CNN编码器传入的后两层特征信息残差相加,增强CNN编码器后两层特征信息传递操作过程中损失的信息; S4,解码器模块:将Transformer编码器的输出信息还原至CNN编码器最后两层特征图大小,最后一层特征图经反卷积操作后与上一层输出的还原结果相加,再使用反卷积操作将相加结果还原到CNN编码器前两层特征图大小,并对应作跳跃连接,最后还原出带标签的CT图像; 步骤S2所述的CNN编码器模块还包括: S21,使用一个Conv_IN_ReLU块对CT图像进行初步处理,包括一个7×7卷积核的卷积层、归一化层和激活层,得到包含丰富局部信息的中间特征图; S22,使用卷积注意力模块,沿着通道和空间两个维度推断注意力映射,强调重要的特征,减小不必要特征的影响,从而关注任务所要分割的关键部位,增强CNN编码器的性能; S23,将融合了卷积注意力的中间特征图传入到ResConvBlock中,经过多个残差卷积块的处理,获得分辨率更低的特征图; S24,按照S22和S23的方法,在经过两次的卷积注意力模块和ResConvBlock处理,得到分辨率更低的高层次特征图,所述高层次特征图包含了CT图像的全局信息; 在S22步骤中,卷积注意力模块将注意力的注入分为两个过程,沿着空间轴的通道注意力模块和沿着通道轴的空间注意力模块,卷积注意力模块输入的中间特征图,卷积注意力模块推导出1维的通道注意力映射和2维空间注意力映射,具体过程如下: S221,空间轴的通道注意力模块通过平均池化和最大池化操作沿着空间轴聚合中间特征图的信息,生成两个不同的通道特征信息和,分别表示跨空间的平均池化特征和最大池化特征;然后这两个通道特征信息分别转发到一个共享前向网络;最后将共享前向网络应用于每个池化特征后的结果,使用逐元素求和操作并输出特征向量,计算方式为: ; S222,将步骤S221中所求得的通道注意力映射与输入数据逐元素相乘,通过步骤S221,通道注意力得到向下传播,其过程概括为: ; S223,通道轴的空间注意力模块首先通过平均池化和最大池化操作沿着通道轴聚合包含了通道注意力中间特征图的信息,生成两个2维映射:和,分别表示跨通道的平均池化特征和最大池化特征;然后将这些信息连接起来并通过一个标准7×7卷积核的卷积层进行卷积操作,产生2维空间注意力特征图;最后通过sigmoid函数进行标准化得到最终注意力映射,计算方式为: ; S224,将步骤S223得到的注意力映射,与步骤S222中求得的进行逐元素相乘,通过此操作来添加空间注意力,此步骤所得结果包含了通道注意力和空间注意力,对输入中间特征图的重要特征达到了强调的目的,且减小了不必要特征的影响,整个过程可以概括为: 。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人湖南中医药大学,其通讯地址为:410208 湖南省长沙市岳麓区含浦科教园象嘴路1号湖南中医药大学;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励