杭州电子科技大学秦飞巍获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉杭州电子科技大学申请的专利基于注意力机制的白细胞细粒度分类方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115439683B 。
龙图腾网通过国家知识产权局官网在2025-11-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211024009.7,技术领域涉及:G06V10/764;该发明授权基于注意力机制的白细胞细粒度分类方法是由秦飞巍;陈奔;邵艳利设计研发完成,并于2022-08-24向国家知识产权局提交的专利申请。
本基于注意力机制的白细胞细粒度分类方法在说明书摘要公布了:本发明公开了一种基于注意力机制的白细胞细粒度分类方法,本发明端到端的可训练的Transformer与卷积结合的模型,融合了Transformer的擅长捕捉长距离依赖关系,提取全局特征的优点和CNN在low‑level提取图像局部特征的优点,能够更好的构建白细胞图像的特征图谱,丰富白细胞的特征信息,提高细胞图像的识别准确率。并且该模型具有一定的泛化性和稳定性,其使用SGD和AdamW俩个优化器均能得到最优解。
本发明授权基于注意力机制的白细胞细粒度分类方法在权利要求书中公布了:1.基于注意力机制的白细胞细粒度分类方法,其特征在于,该方法具体包括以下步骤: 数据集的收集,WBCLformer模型的搭建和训练,WBCLformer模型效果检验; 步骤1:获取白细胞图像作为基础数据集,并且分为训练集和测试集; 步骤2:WBCLformer模型的搭建和训练 WBCLformer模型的训练分为三个步骤:神经网络模型的搭建,预训练,在白细胞数据集训练; 步骤2.1:神经网络模型搭建 该神经网络由三个部分组成,分别为特征提取器,编码器,辨别区域筛选; 步骤2.1.1:特征提取器 先将图像数据转化为局部特征数据,采用卷积核为3*3的卷积操作获取图像的特征数据; 步骤2.1.2:编码器 在WBCLformer中有两种编码器,一种为Transformer中的编码器,另一种是通过改进的局部编码器; 步骤2.1.2.1:Transformer编码器 该编码器分成两个模块,一个为Multi-headSelfAttentionlayers,即MSA,另一个为FeedForwardNetwork,即FFN; MSA:通过输入向量之间的彼此交互学习,通过计算不同对象的不同权重,从而找出更关注的区域信息; FFN:获得加权的向量之后,需要将向量输入到FFN中进行进一步处理; 步骤2.1.2.2:局部编码器 局部编码器通过将自注意力机制中的全局注意力和CNN相结合,并在编码器中加入卷积操作来实现局部信息的提取;其计算公式如下所示: zseq+1=I2SDWS2Izseq 其中,S2I是将序列数据重构为二维图像数据,DW是Depth-Wise卷积操作,I2S是将二维图像数据转化为序列数据; 步骤2.1.3:辨别区域筛选 筛选具有相关性的token,其计算公式如下所示: attenfinal=Πatteni atteni表示的是第i层的注意力权重,将各个层的注意力权重相乘,筛选出模型最关注的token,从而进行最后的分类; 步骤2.2:白细胞数据集训练 在ImageNet-2012数据集的预训练和在白细胞数据集的训练; 步骤2.2.1:预训练 模型训练采用AdamW优化算法来调整参数,学习率为5e-4,权重衰减为1e-3,一阶指数衰减率为0.9,二阶指数衰减率为0.999,总共训练150-250轮; 步骤2.2.2:白细胞数据集训练 将模型的最后一层进行替换,并且使用预训练的模型参数作为训练的初始值,随后进行模型的训练; 模型训练采用的是AdamW优化算法来调整参数,其训练参数与预训练相同;其学习率调整策略采用了warm-up和余弦退火; 步骤3:WBCLformer模型效果检验 将训练好的模型在测试集中进行测验,将预测的结果与实际值进行比较,并采用评价指标来进行分析。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州电子科技大学,其通讯地址为:310018 浙江省杭州市下沙高教园区2号大街;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励