Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 吉林大学于树友获国家专利权

吉林大学于树友获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉吉林大学申请的专利一种基于Transformer架构的半主动悬架控制系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119261470B

龙图腾网通过国家知识产权局官网在2025-09-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411681317.6,技术领域涉及:B60G17/018;该发明授权一种基于Transformer架构的半主动悬架控制系统是由于树友;何雨纯;郭杰;马超;陈虹设计研发完成,并于2024-11-22向国家知识产权局提交的专利申请。

一种基于Transformer架构的半主动悬架控制系统在说明书摘要公布了:本发明属于车辆悬架系统控制技术领域,本发明公开了一种基于Transformer架构的半主动悬架控制系统,包括如下步骤:布置传感器网络,采集车辆动态数据;使用预设算法对来自不同传感器的异步数据进行对齐,保持异构数据的时序一致性;传感器i在时间t的测量值为xit,在本发明中,通过Transformer机制降低了对状态量进行权重分配,避免了传感器误差带来的错误控制量,提高了悬架控制系统对数据异常的鲁棒性,能够在传感器故障、受到外部攻击注入虚假传感器数据或极端路况下保持稳定控制,通过DDPG强化学习控制算法,增强了系统在复杂多变环境下的适应能力,可以快速适应不同路况、载重和驾驶风格,在保证计算效率的同时提高了控制效果。

本发明授权一种基于Transformer架构的半主动悬架控制系统在权利要求书中公布了:1.一种基于Transformer架构的半主动悬架控制系统,其特征在于:包括如下步骤: S1:布置传感器网络,采集车辆动态数据; S2:使用预设算法对来自不同传感器的异步数据进行对齐,保持异构数据的时序一致性; 传感器i在时间t的测量值为xit,将所有传感器数据对齐到统一的时间点tk:其中tj≤tktj+1; S3:建立四分之一车辆二自由度模型 其中ms为车身质量,mu为簧下质量,F为磁流变阻尼器阻尼力,xs为车身位移,xu为簧下位移,xr为车轮位移,c为阻尼器不可控阻尼,ks为弹簧刚度,kt为车轮刚度; S4:通过神经网络对磁流变阻尼器进行建模: 通过预设设备获取阻尼器实验数据,通过神经网络对数据进行拟合,得出权重矩阵wI,wH和wO; 将阻尼器神经网络模型与车辆悬架动力学模型结合,得出一体化模型; 将强化学习结构与该一体化模型进行交互,训练神经网络参数; S5:对状态量应用DDPG强化学习算法进行控制量计算,DDPG网络结构为Actor-Critic结构,其中Actor网络生成动作:at=μs|θμ,Critic网络评估状态-动作值Qs,a|θQ; S6:将状态量传入Transformer架构中,替代传统Actor网络,对状态量的关联性分析,区分有效信息及状态量误差,将数据xitk传入DDPG的Transformer架构中; S7:将带编码高维数据X分别与权重点乘,得出带权重矩阵V每一行代表传感器数据的高维表达; S8:对其中Q与K矩阵进行转置点乘,得出QKT矩阵; S9:对已获得的注意力权重结果除K矩阵维度进行缩放,对计算得出的注意力权重矩阵进行softmax激活函数变换,将结果转化成百分比; S10:将经过变换的注意力权重与矩阵V相乘,得出结果中每一个元素为每一个样本数据对应其他所有样本数据在Q,K矩阵64维度下的关注度权重的总和,通过注意力权重调整V矩阵权重得出结果AttentionQ,K,V; S11:对自注意力矩阵headi=AttentionQ,K,V进行多组并行训练,得出多头注意力机制结果Concathead1,…,headh,将该多头注意力机制结果与多头权重矩阵WO相乘,得出多头注意力结果MultiHeadQ,K,V=Concathead1,…,headhWO,每个头headi是不同空间的注意力机制结果; S12:将Transformer架构替换传统强化学习Actor网络架构,通过Transformer架构生成参数化策略μs|θμ来输出给定状态下的最优动作at=μs|θμ,其目标是最大化累积奖励的期望:Critic网络用于评估状态-动作值函数Qs,a∣θQ,通过最小化以下损失函数来优化其参数:LθQ=Es,a,r,s′~D[r+γQs′,μs′∣θμ∣θQ-Qs,a∣θQ2]其中,r为即时奖励,γ为折扣因子,D为经验回放缓冲区中的数据; S13:设计强化学习奖励函数; S14:采用双网络架构,包括两个独立的Actor网络和与两个独立的Critic网络和通过以下公式计算最小的动作量与状态-动作值:定义损失函数为: S15:将与环境交互过程获得的数据存储到回放缓冲区D中,从缓冲区中随机采样批次数据用于训练,提升样本利用率,对于双Actor和Critic网络更新机制,采用分别维护延迟更新的目标网络参数θμ'和θQ',每次更新网络参数时,目标网络使用软更新规则:Actor网络更新规则:θμ'←τθμ+1-τθμ',Critic网络更新规则:θQ'←τθQ+1-τθQ',其中,τ是软更新参数,平衡当前网络参数与待更新参数,调整网络参数,获取控制信号I。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人吉林大学,其通讯地址为:130022 吉林省长春市南关区人民大街5988号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。