福州大学陈丹获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉福州大学申请的专利一种基于超分-yolo网络的小目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116245860B 。
龙图腾网通过国家知识产权局官网在2025-07-01发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310255946.1,技术领域涉及:G06T7/00;该发明授权一种基于超分-yolo网络的小目标检测方法是由陈丹;羊淼海;谭钦;林哲;柯寅设计研发完成,并于2023-03-16向国家知识产权局提交的专利申请。
本一种基于超分-yolo网络的小目标检测方法在说明书摘要公布了:本发明提出一种基于超分‑yolo网络的小目标检测方法,以yolo网络作为基础网络架构,与超分模块相结合并加入位置注意力机制、自注意力机制以及引入递归空洞卷积模块,包括以下步骤;步骤一、采集图像并对图像进行预处理生成原图;步骤二、以超分拟合网络与经过改进后的yolo目标识别网络联接,构成超分‑yolo网络模型,对原图处理并输出分辨率更高的超清图像,再对该超清图像进行提取特征、目标框回归分类与物体检测识别等操作,得到被识别的图像,形成训练用数据集;步骤三、训练小目标物体检测模型;步骤四、将训练好的模型用于小目标物体检测;本发明可以通过更大的感受野获取更多的物体特征信息,应用于小目标检测时,可以有效实现小物体的提取。
本发明授权一种基于超分-yolo网络的小目标检测方法在权利要求书中公布了:1.一种基于超分-yolo网络的小目标检测方法,其特征在于:所述方法以yolo网络作为基础网络架构,与超分模块相结合并加入位置注意力机制、自注意力机制以及引入递归空洞卷积模块,以凸显小目标位置信息,增强细节特征;包括以下步骤; 步骤一、采集图像并对图像进行预处理生成原图; 步骤二、以超分拟合网络与经过改进后的yolo目标识别网络联接,构成超分-yolo网络模型,对原图处理并输出分辨率更高的超清图像,再对该超清图像进行提取特征、目标框回归分类与物体检测识别操作,得到被识别的图像,形成训练用数据集; 步骤三、训练小目标物体检测模型; 步骤四、将训练好的模型用于小目标物体检测; 所述步骤二中,超分拟合网络是特征提取网络与超分线性拟合网络组合而成,原图经过超分拟合网络输出分辨率更高的超清图像;具体包括: 步骤2-1、所述超分拟合网络由超分特征提取网络Encoder与超分线性拟合网络LIIF组合而成;超分特征提取网络Encoder采用递归空洞卷积获取原始图像的浅层特征,再连接一个残差组进行深度特征提取,然后再采用亚像素卷积的方式进行上采样,最后通过一个卷积层重建放大的特征,获得特征张量; 超分线性拟合网络先对经超分特征提取网络获得的特征张量进行展开,将隐特征的局部近邻对齐并进行特征丰富处理,然后对展开变换后的特征进行解码操作,生成超清图像; 步骤2-2、将生成的超清图像送至改进后的yolo目标识别网络进行特征提取,再将提取到的特征经过网络头部模块进行特征融合处理,得到大、中、小三种尺寸的特征,融合后的特征被用于预测目标种类和位置,最后输出检测结果; 所述改进后的yolo目标识别网络,其改进点在于, 改进点一、使用三个卷积层通过前向传播输入到Hornet,组合成新的架构ConvHB,并用ConvHB模块代替原yolo骨干网络backbone的ELAN模块,降低了运算复杂度,形成高有效的空间交互建模方式; 改进点二、用卷积层Conv和VisionTransformer模块ViT连接形成新的CViT模块,通过引入上下文信息以提高对于小目标物体的检测; 改进点三、引入位置注意力机制以突显小目标物体位置信息,将特征X输入卷积核大小为1×W和H×1的两个卷积层,分别生成A和B两个向量;在A和B之间进行一个矩阵乘法的操作,并用一个softmax层来获得位置注意力图S;将原特征X乘上位置注意力图S,进而和特征X进行元素求和,生成最终增强后的特征图Y;最后将位置注意力机制WZ模块移植到目标识别主干网络的最后一层当中; 所述步骤三包括以下步骤; 步骤3-1、参数初始化设置:在训练过程中,图像大小调整为Hi×Wi;训练次数、初始学习速率和批量大小也设置为a、b和c;采用余弦退火学习率调整方法调整学习率b;选择Adam作为优化器以使数据集更快得到最优值;在训练阶段,进行随机裁剪,随机亮度,随机旋转的图像增强操作; 步骤3-2、开始训练:将训练样本输入SR-yolo检测模型中; 步骤3-3、更新参数:采用的损失函数包括三部分:矩形框损失、置信度损失、分类损失; 步骤3-4、输出模型:重复步骤3-2、步骤3-3,当训练次数达到设定值后,停止训练,输出损失值最小的模型; 步骤3-3中,采用yolov7的损失函数,即:矩形框损失、置信度损失、分类损失,以公式具体表述如下: Loss=a×lossobj+b×lossrect+c×lossclc; 式中,使用CIOUloss计算矩形框损失,置信度损失lossrect与分类损失lossclc都用BCEloss计算,即以带log的二值交叉熵损失进行计算; 所述改进后的yolo目标识别网络,其主体采用改进的yolov7网络架构,包括输入Input、骨干网络Backbone、头部Head,将超清图像经过四个CBS模块后,送入到带有空洞递归卷积的ConvHB模块。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人福州大学,其通讯地址为:350108 福建省福州市闽侯县福州大学城乌龙江北大道2号福州大学;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。