Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 浙江大学刘达新获国家专利权

浙江大学刘达新获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉浙江大学申请的专利基于多智能体深度强化学习的移动物体机械臂抓取方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117207181B

龙图腾网通过国家知识产权局官网在2026-02-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311161282.9,技术领域涉及:B25J9/16;该发明授权基于多智能体深度强化学习的移动物体机械臂抓取方法是由刘达新;黄宇;刘振宇;谭建荣设计研发完成,并于2023-09-08向国家知识产权局提交的专利申请。

基于多智能体深度强化学习的移动物体机械臂抓取方法在说明书摘要公布了:本发明公开了一种基于多智能体深度强化学习的移动物体机械臂抓取方法。本发明包括如下步骤:首先,利用相机实时捕捉移动物体抓取平台上的移动物体图像,再对移动物体图像进行目标状态提取后,获得实时目标位姿;接着建立机械臂抓取移动物体的深度强化学习模型并根据实时目标位姿不断地控制机械臂不断尝试抓取目标物体,深度强化学习模型根据抓取结果对模型参数进行更新,从而提高抓取成功率,直至完成模型训练;最后,将待抓取的移动物体的实时目标位姿发送给训练完成的深度强化学习模型,进而控制机械臂夹爪靠近移动物体并完成抓取任务。本发明提出的移动物体机械臂抓取方法对不同的抓取目标在不同的移动轨迹下都能成功完成抓取。

本发明授权基于多智能体深度强化学习的移动物体机械臂抓取方法在权利要求书中公布了:1.一种基于多智能体深度强化学习的移动物体机械臂抓取方法,其特征在于,包括以下步骤: 步骤S1:构建移动物体抓取平台,利用RGBD相机实时捕捉移动物体抓取平台上的移动物体图像,再对移动物体图像进行目标状态提取后,获得实时目标位姿; 步骤S2:建立机械臂抓取移动物体的深度强化学习模型MA-TD3H; 步骤S3:深度强化学习模型MA-TD3H根据实时目标位姿不断地控制机械臂不断尝试抓取目标物体,深度强化学习模型MA-TD3H根据抓取结果对模型参数进行更新,从而提高抓取成功率,直至完成模型训练; 步骤S4:将待抓取的移动物体的实时目标位姿发送给训练完成的深度强化学习模型MA-TD3H,进而控制机械臂夹爪靠近移动物体并完成抓取任务; 所述步骤S2中,机械臂抓取移动物体的深度强化学习模型MA-TD3H的状态s包括机械臂夹爪的三维位置和速度以及移动物体的三维位置和速度,动作a为机械臂夹爪的三维速度,奖励为单步总奖励值r,经验回放池包括普通经验回放池和高质量经验回放池; 所述单步总奖励值r的公式为: r=rdense+rsparse rdense=-wdis*ldis 其中,rdense为单步密集奖励值,rsparse为单步稀疏奖励值;ldis为机械臂末端与抓取目标在世界坐标系下的欧拉距离,wdis为距离对奖励值的影响因子; 单步稀疏奖励值rsparse的计算公式如下: rsparse=rv+rg+rc+rt rt=-Rt*tstep 其中,rv为在世界坐标系下机械臂末端相对于抓取目标的速度的二范数的奖励值;rg为机械臂抓取移动物体成功时的奖励值,rc为机械臂与目标发生碰撞时的惩罚值,rt为对时间步的惩罚项,Rv为速度的固定奖励值,Rg为抓取成功的固定奖励值,Rc为发生碰撞的固定惩罚值,Rt为对时间步的固定惩罚值,和为抓取目标的三维速度值,和为机械臂末端的三维速度值,tstep为当前训练的时间步。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江大学,其通讯地址为:310058 浙江省杭州市西湖区余杭塘路866号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。