Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中国人民解放军空军工程大学张梓轩获国家专利权

中国人民解放军空军工程大学张梓轩获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中国人民解放军空军工程大学申请的专利一种阵列时变幅相误差校正方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116415117B

龙图腾网通过国家知识产权局官网在2025-07-15发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310340166.7,技术领域涉及:G06F18/10;该发明授权一种阵列时变幅相误差校正方法是由张梓轩;齐子森;许华;李彬彬;蒋磊;孟庆微;史蕴豪;梁佳设计研发完成,并于2023-03-31向国家知识产权局提交的专利申请。

一种阵列时变幅相误差校正方法在说明书摘要公布了:提供一种阵列时变幅相误差校正方法,包括下列步骤:第一步:阵列数据预处理;第二步:网络参数更新与阵列数据校正。本发明方法对阵列天线的时变幅相误差有很好的校正效果,在各种恶劣条件中始终保持在较高水平。其主要原因是本发明方法能够有效提取阵列数据的深层特征,对特征进行压缩处理,并利用深度神经网络的重构能力在理想数据与时变扰动数据双驱动下实现阵列时变幅相误差的有效校正,显著提升了接收信号的信噪比。

本发明授权一种阵列时变幅相误差校正方法在权利要求书中公布了:1.一种阵列时变幅相误差校正方法,其特征在于,具体包括下列步骤: 第一步:阵列数据预处理 理想状态阵列数据表示为: 将上式改写为矢量形式: X0t=A0St+N0t2 式中,X0t是理想状态阵列的M×1维快拍矢量,x1t,…,xMt分别为第1到M个阵元接收到的信号,M为阵列中的阵元数目;N0t是理想状态阵列的M×1维噪声数据矢量,n1t,…,nMt分别为第1到M个阵元接收到的噪声;St是空间信号的N×1维矢量,N为接收的信号数目,s1t,…,sNt分别为第1到N个入射信号;为是阵元接收信号的频率,c为光速,λ为波长,f为接收信号频率,j为虚数单位;A0是理想的空间阵列的M×N维流形矩阵,即导向矢量矩阵,其中: A0=[a1ω0a2ω0…aNω0]3 导向矢量: 式中,τnm为第m个阵元接收第n个入射信号的时延,其中n、m的取值范围i=1,2,…,N,m=1,2,…,M; 空间阵列天线接收到的含扰动的快拍数据矢量表示为: Xt=Aθ,ρSt+Nt5 式中,Xt是扰动阵列的M×1维快拍矢量,Nt是扰动阵列的M×1维噪声数据矢量,St是空间入射信号的N×1维矢量;Aθ,ρ=[aθ1,ρaθ2,ρ…aθN,ρ]是M×N维扰动阵列流形矩阵,aθn,ρ为第n个信源相对应的阵列导向矢量,θ为方位矢量,θ1…θN分别为第1到N个信号入射的方位角,ρ是与导向矢量有关的阵列参数; 阵元复增益归一化处理: 其中xm为第m个阵元的复增益值,minxm为第m个阵元的最小复增益值,maxxm为第m个阵元的最大复增益值; 假设阵元无幅相误差、各阵元是完全相同的全向天线,并且第一个阵元的复增益归一化为1时,阵列导向矢量表示如下: 式中,f0为入射信号的频率,τmθn,ρ是第n个信号源到达第m个阵元时相对于第1个阵元的时延;rm是第m个阵元的坐标矢量,分别是第m个阵元的三维空间直角坐标;vn是第n个信号源的方位矢量;是第n个入射信号的俯仰角; 与方位无关的幅相误差的阵列导向矢量: 式中,Γ2…ΓM分别为第2到M个阵元的幅相误差,τ2n…τMN分别为第2到M个阵元的时延; 受扰动的空间阵列的M×N维流形矩阵: Γ=[1Γ2…ΓM]13 式中,为与方位无关的幅相误差的阵列流形矩阵,只含方位无关的幅相误差;分别为第1到N个信源相对应的阵列导向矢量;Γ为M个阵元的幅相误差矩阵,为简单起见,用A简化表示Aθ,ρ=[aθ1,ρaθ2,ρ…aθN,ρ]; 空间阵列接收到的含有幅相误差的信号数据能够表示为以下矢量形式: 将含有幅相误差的扰动信号数据和不含幅相误差的无扰动信号数据X0t进行数据切分,即将扰动信号数据和无扰动信号数据X0t的复值分别切分成实值和虚值,将得到的实值和虚值进行维度变换,由M×N维转换为M×1×N×1维,将得到的实值和虚值进行堆叠,由两组M×1×N×1维数据转换为一组M×2×N×1维数据,得到维度转换后的无扰动阵列数据X0t和扰动阵列数据并分别在转换维度后的无扰动阵列数据X0t和扰动阵列数据上加高斯白噪声,处理后的扰动数据和无扰动数据组成网络的训练集,随机抽取P%扰动数据作为网络的测试集; 第二步:网络参数更新与阵列数据校正 网络由编码器和解码器两部分组成,编码器由三层神经网络构成,分别为输入层和两层卷积层;解码器由四层神经网络构成,分别为三层全连接层和输出层,具体如下; 1阵列数据特征提取与压缩 编码器将输入的M×2×N×1维阵列数据通过输入层转换为M×2×N维格式的数据,在两层卷积层中,通过各层网络输入的数据矩阵与卷积核矩阵计算矩阵内积并将结果减去各层对应的节点偏置同时通过在每个样本边缘进行补零的操作,确保卷积后得到的样本尺寸不变,设置卷积核尺寸kernel_size,特征通道数filters分别为Q、R个,通过卷积操作提取到阵列数据的M×R维和M×R维特征,之后采用ReLU函数进行分别激活,实现阵列数据的深层特征提取和压缩,其中ReLU函数表达式为: 2网络参数学习与数据校正 网络参数学习与数据校正由解码和最小化均方误差过程完成,解码过程利用三层全连接层网络实现,设置三层网络的节点数,即神经元个数,前两层的激活函数为ReLU,最后一层的激活函数为双曲正切函数;解码后将得到的N×2×M×1维重构数据再经过数据尺度变换得到N×M维重构数据,之后与原始无扰动数据进行最小化均方误差计算,最小化重构数据与无扰动阵列数据的差异,直到计算所得的均方误差达到最小或者网络的迭代次数达到设定的最大迭代次数,然后输出最终的重构数据; 网络参数学习与数据校正具体流程如下: Step1:初始化各隐藏层与输出层的Wl,的值为一个随机值;其中Wl表示第l层隐藏层和输入层的权值矩阵,表示第l层编码层的节点偏置,下角标1表示编码层,表示第l层解码层的节点偏置,下角标2表示解码层; Step2:设置算法最大迭代次数H,进行运算: 1第1层输入层将网络输入a1设置成第m个阵元接收到的信号xm对应的张量 其中,ai,l表示网络中第l层的第i个神经元的输入,l表示模型层数,zi,l表示网络中第l层的第i个神经元的输出,σ·表示激活函数ReLU,H表示最大迭代次数; 2第2、3层的卷积层进行前向传播算法计算: 3最后1层的输出层进行双曲正切tanh函数激活: 其中,tanh为双曲正切函数,即是神经元激活函数; 4通过损失函数C计算输出层的误差δi,l: 其中,C为损失函数,为第i个重构的接收信号,即重构样本,xi为第i个无扰动的接收信号,即输入样本,σ′·为激活函数σ·的导函数,δi,l为第l层输出层第i个神经元的误差,k为样本数; 5后3层的全连接层进行反向传播算法计算: δi,l=WlTδi,l⊙σ′zi,l 其中,T表示矩阵的转置运算,⊙为哈达玛积Hadamardproduct; 6第2、3层的卷积层进行反向传播算法计算: δi,l=δi,l*rot180Wl+1⊙δ′zi,l 其中,rot180为矩阵旋转180度,通过行对称变换和列对称变换完成; 7卷积层和全连接层进行前向传播算法计算: a更新卷积层中第l层的Wl, 其中,α表示学习率即每次更新参数的权重;卷积层使用的卷积核尺寸为u×v; b更新全连接层中第l层的Wl, 8如果所有Wl,b1,b2的变化值都小于停止迭代阈值ε,其中在b1、b2中,b表示节点偏置,下标1、2分别表示该节点偏置分属于编码层、解码层,则跳出迭代循环,执行步骤3; Step3:输出各隐藏层与输入层的权值矩阵矩阵Wl和节点偏置 对于输入样本与重构样本均方误差为: 其中,为均方误差损失函数,X为输入样本集合,为重构样本集合。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国人民解放军空军工程大学,其通讯地址为:710051 陕西省西安市灞桥区长乐东路甲字1号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。