Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 广东工业大学魏美娜获国家专利权

广东工业大学魏美娜获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉广东工业大学申请的专利一种机械臂控制方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120439298B

龙图腾网通过国家知识产权局官网在2026-01-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510696186.7,技术领域涉及:B25J9/16;该发明授权一种机械臂控制方法及系统是由魏美娜;陈润;庞一淦设计研发完成,并于2025-05-28向国家知识产权局提交的专利申请。

一种机械臂控制方法及系统在说明书摘要公布了:本发明涉及机械臂控制的技术领域,更具体地,涉及一种机械臂控制方法及系统,包括基于策略网络确定目标下棋位置,基于误差补偿模型调整目标下棋位置,得到经验下棋位置,根据经验下棋位置控制机械臂放置棋子;并在整局游戏结束后,根据游戏结果和误差补偿模型更新策略网络。本发明通过在每次对局后根据游戏结果和误差数据迭代训练,对策略网络进行反馈调整,整合游戏结果、误差数据和棋盘状态数据生成目标下棋位置,增强系统的端到端性能,在物理误差不可抗的基础上整体提高下棋胜率。

本发明授权一种机械臂控制方法及系统在权利要求书中公布了:1.一种机械臂控制方法,其特征在于,包括: S1:获取棋盘状态数据,基于策略网络,确定目标下棋位置; S2:基于所述目标下棋位置,控制机械臂放置棋子; S3:获取步骤S2后的棋盘状态数据,得到机械臂放置棋子的实际位置,根据所述实际位置和所述目标下棋位置计算误差; S4:重复步骤S1-S3,根据每次S3中的误差得到误差补偿模型; S5:获取棋盘状态数据,基于策略网络,确定目标下棋位置,基于所述误差补偿模型调整目标下棋位置,得到经验下棋位置; S6:基于所述经验下棋位置,控制机械臂放置棋子; S7:获取步骤S6中通过所述经验下棋位置控制机械臂移动的实际位置,根据所述实际位置优化所述误差补偿模型; S8:用S7得到的优化后的误差补偿模型,重复步骤S5-S8至游戏结束,得到游戏结果; S9:根据所述游戏结果和所述误差补偿模型更新所述策略网络,得到更新策略目标函数; S10:用S9得到的更新策略目标函数对S5中策略网络使用的策略目标函数进行替换,重复步骤S5-S8; 步骤S1具体按以下步骤进行: S11:使用摄像头采集图像,通过图像处理技术根据所述图像生成所述棋盘状态数据; S12:基于所述棋盘状态数据,得到估计优势函数; S13:基于所述估计优势函数采用强化学习算法通过试错机制迭代优化策略网络的参数,以改进策略; S14:当所述策略最大化长期期望奖励时,得到目标下棋位置; 所述估计优势函数具体为:选择所述目标下棋位置产生的实际累积回报的估计相对于选择所述目标下棋位置产生的估计累积回报的优劣,具体采用以下公式计算: 其中,是估计优势函数;rt是时间步t产生的即时奖励;γ是折扣因子,0γ1;st是时间步t的棋盘状态数据;Vst是时间步t的棋盘状态数据的价值,由值函数网络实时估计; S13中具体使用的策略目标函数为: 其中,θ是策略网络的参数;表示对整局时间步t的期望;πθ是新策略,是旧策略,ratiotθ是新策略与旧策略在时间步t的棋盘状态数据下选择时间步t的下棋位置的概率比率;clipratiotθ,1-∈,1+∈是裁剪函数,∈为裁剪参数,∈为0.1或0.2; 所述长期期望奖励,具体采用以下公式计算: 其中,R是长期期望奖励。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人广东工业大学,其通讯地址为:510006 广东省广州市越秀区东风东路729号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。