Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 电子科技大学廖阔获国家专利权

电子科技大学廖阔获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉电子科技大学申请的专利一种基于引导表示的雷达一维距离像自维持增量识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116068518B

龙图腾网通过国家知识产权局官网在2025-07-04发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310057069.7,技术领域涉及:G01S7/41;该发明授权一种基于引导表示的雷达一维距离像自维持增量识别方法是由廖阔;潘启迪;卜志纯;陈思情;沈晓峰设计研发完成,并于2023-01-16向国家知识产权局提交的专利申请。

一种基于引导表示的雷达一维距离像自维持增量识别方法在说明书摘要公布了:本发明属于目标识别技术领域,具体涉及一种基于引导表示的雷达一维距离像自维持增量识别方法。本发明针对雷达一维像新目标识别中存在的灾难性遗忘问题,根据visiontransformer的结构特点提出自维持的引导表示方法。一方面,使用可学习的导航,以一维块的形式保留类别特定信息,通过在训练过程中查询得到相似度最高的导航扩展编码层的输入,使得模型获得更多附加信息,提升识别准确率。另一方面,构建结构扩展模块保留所有旧类信息,在每次训练时通过元素级求和扩张模型的结构,使得模型能够在新旧类别信息的共同指导下学习。同时,为了防止模型在记忆时失去对新类别的学习能力,使用不被冻结的模型,让模型能够充分学习到新类别。

本发明授权一种基于引导表示的雷达一维距离像自维持增量识别方法在权利要求书中公布了:1.一种基于引导表示的雷达一维距离像自维持增量识别方法,包括以下步骤: S1、构建数据集: 将学习过程划分为基础任务和增量任务两个阶段,基础任务只有一个任务T1,增量任务由多个不相交的任务{T2,T3,...,TT}构成;取雷达一维距离像数据的幅度像数据作为输入,为每个任务分配不同数量的类别,每类目标的样本数相同;定义基础任务的目标类别数为N1,增量任务的数量为T-1,每个增量任务的目标类别数为N2,总类别数N=N1+N2×T-1; S2、数据预处理: 对S1中的所有样本进行归一化处理,将信号强度映射到-1,1上,获得任务t的训练集: 其中t代表第t个任务,T代表任务的数量;N表示总类别数目;B代表采样点数;Ki代表第i类目标的训练样本数;训练集的样本标签集表示为: 式中ytrain ij表示样本xtrain ij的类别标签; S3、构建自维持的引导表示网络:网络基础框架是visiontransformer,在这个基础上,增加动态查询导航模块扩张visiontransformer编码层的输入维度;增加结构扩展模块扩张编码层中后几层的网络结构;具体的: S31、构建预训练好的基础visiontransformer网络为其中φprem·表示线性投影模块,φtrans·表示transformer编码层;具体的: 线性投影模块将雷达一维距离像拆分为多个一维块,输入x∈R1×B被分割成Ne个向量,表示为再经过线性变换将其转换为适合ViT使用的维度D: 在xp之前加入一个可学习的令牌,并添加每个嵌入块的位置信息: 编码层共有L层,每一层包含:两个归一化LN、多头注意力MSA、两个dropout以及MLP块,模型的整体输出为最后一层xclass对应的输出: zl'=dropoutMSALNzl-1+zl-1,l=1,...,L zl=dropoutMLPLNzl'+zl',l=1,...,L S32、构建动态查询导航模块,动态查询导航模块的输入为S2中预处理后的结果Xt,通过查找与输入样本最相似的导航,输出M个与token具有相同维度的导航A,具体包括: 构建导航池,池中包含两个部分:键值K和导航A,键值和导航一一对应表示为{k1,A1,k2,A2,...,kN,AN},共有N个;设计键值与visiontransformer的xclass对应的输出具有相同的维度设计导航与编码层的单个输入具有相同的维度Ai∈RD; 查询得到导航,输入Xt,经过一个预训练好的visiontransformer,得到xclass对应位置的输出计算与导航池中所有键值的相似度,找到相似程度最高的M个键值对应的索引: 扩充输入,由于键值和导航一一对应,根据键值的索引找到M个navigation,表示为Aq;用Aq代替xclass扩充xe: S33、构建结构扩展模块,将visiontransformer的编码层划分为层固定层和层扩展层固定层在预训练之后冻结,扩展层被结构扩展模块按照元素级求和的方式扩充,具体包括: 构建扩展结构,设计扩展结构g与扩展层相同:个MSA层,每一层包含两个归一化LN、多头注意力MSA、两个dropout以及MLP块;扩展结构在每个任务训练结束后,使用内存数据库中的旧类数据更新; 扩展模型结构,扩展层和扩展结构的输入都是固定层的输出对于扩展结构,每一层的输入是上一层的输出: pi=gipi-1 对于扩展层,每一层的输入是上一层模型的输出与扩展结构输出的元素级求和: 其中,qi表示模型的第i层输出,表示两个向量的对应元素求和; S4、采用基础数据集的训练样本对S3构建的网络进行训练,模型的损失函数为: L=Lclass+λLquery 其中,λ为超参数;具体包括: S41、Lclass的具体形式为: 上式中Lce表示交叉熵损失,y表示样本的标签,是模型在当前样本上的预测结果: 其含义是:S32中取出的导航对应位置的输出的平均值在分类器上的输出结果; S42、Lquery的具体形式为: 上式中qx表示S32中计算出的xclass对应位置的输出,kq表示与qx相似度最高的M个键值,该损失函数用于更新键值,使得选出的M个键值与qx之间的差别更小; S5、每个任务学习结束之后,为任务中的每个类别选择H个样本保留在样本数据库中; S6、将待识别的雷达目标一维像数据与之前保留的所有样本共同输入到训练好的模型中进行分类识别。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人电子科技大学,其通讯地址为:611731 四川省成都市高新西区西源大道2006号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。