浙江大学朱世强获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉浙江大学申请的专利基于启发轨迹的灵巧手与机械臂强化学习协同控制方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117733850B 。
龙图腾网通过国家知识产权局官网在2026-02-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311770827.6,技术领域涉及:B25J9/16;该发明授权基于启发轨迹的灵巧手与机械臂强化学习协同控制方法是由朱世强;钱豪夫;宋伟;张浩阳设计研发完成,并于2023-12-21向国家知识产权局提交的专利申请。
本基于启发轨迹的灵巧手与机械臂强化学习协同控制方法在说明书摘要公布了:本发明属于机械臂及灵巧手控制领域,公开了一种基于启发轨迹的灵巧手与机械臂强化学习协同控制方法。该方法首先在仿真环境中建立了机械臂‑灵巧手协同控制的框架,并采用PPO算法进行控制策略学习。通过设计奖励函数,考虑平移、姿态调整、旋转等动作,提高控制策略适应性。在控制过程中,引入了约束强化的微分动态规划方法,以更好地考虑机械臂的动力学特征。最后,通过混合梯度更新方法,结合启发式样本和探索性样本,形成机械臂‑灵巧手协同控制策略,提高学习效率和泛化性。
本发明授权基于启发轨迹的灵巧手与机械臂强化学习协同控制方法在权利要求书中公布了:1.一种基于启发轨迹的灵巧手与机械臂强化学习协同控制方法,其特征在于,包括如下步骤: 步骤1:仿真环境与模型创建:建立基于gym库的mujocogym框架,建立灵巧手‑机械臂一体化模型,构造两者相连关系及运动约束; 步骤2:在步骤1的基础上建立mujoco环境下的机械臂‑灵巧手协同控制马尔科夫决策过程模型; 步骤3:针对环境及任务特点,进行分阶段奖励函数的设计,使其可以充分表达任务的完成情况,通过使用更丰富的信息奖励智能体; 步骤4:采用CS‑DDP方法在动力学模型与约束基础上生成启发式轨迹样本,为强化学习训练过程提供引导; 提出结合约束强化的微分动态规划方法CS‑DDP,在微分动态规划DDP的基础上,使得原本最小化偏离期望轨迹的目标函数额外加入紧约束项,设xt是机械臂在时刻t的状态,ut是时刻t的控制输入,系统的动力学描述为:xt+1=fxt,ut,其中f是机械臂的非线性动力学函数,目标是找到一系列控制输入ut,使得最小化目标函数J,在系统的动力学和约束条件下: 其中L是阶段目标函数,惩罚偏离期望轨迹,Φ是末状态目标函数,惩罚偏离最终状态,是期望的初始状态,是期望的最终状态,g是强制系统约束的约束函数,约束函数被更新为: gx,u=g0x,u+λv*gvx,u+λe*gex,u其中g0x,u是没有约束的原始目标函数,λv和λe是速度和位置约束的惩罚系数,gvx,u和gex,u是速度和位置约束的惩罚函数,这些惩罚函数定义为gvx,u=max0,||vk||‑vmax2gex,u=max0,||pk‑pdes||‑emax2在算法执行过程中利用仿真环境对目标对象姿态四元数进行多次采样,以提供准确的位置和姿态范围,利用这些信息确定操作所需的灵巧手位置和姿态的最佳范围,即最后将得到最大误差emax和期望的最终状态步骤5:利用此前生成样本与智能体探索样本,以自适应权重的方式指导梯度更新。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江大学,其通讯地址为:310013 浙江省杭州市西湖区余杭塘路866号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励