湖南大学王耀南获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉湖南大学申请的专利一种用于多机器人协同装配的形变在线测量与管控方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN121245868B 。
龙图腾网通过国家知识产权局官网在2026-03-27发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511826738.8,技术领域涉及:B25J9/16;该发明授权一种用于多机器人协同装配的形变在线测量与管控方法是由王耀南;李卓维;贺文斌;毛建旭;张辉;刘彩苹;易俊飞;徐青云设计研发完成,并于2025-12-05向国家知识产权局提交的专利申请。
本一种用于多机器人协同装配的形变在线测量与管控方法在说明书摘要公布了:本申请涉及一种用于多机器人协同装配的形变在线测量与管控方法,包括:通过分布式机器人及其末端布置的相机实时采集装配过程中工件的多视角表面图像;并将各视角表面图像分别输入基于数字图像相关技术训练的深度学习模型,输出各视角表面图像对应的最优像素位移,并将各视角表面图像对应的最优像素位移转换为空间位移标签;深度学习模型以编码器‑解码器为主干网络;融合各视角表面图像对应的空间位移标签,得到融合位移场;基于融合位移场与名义路径规划点,确定分布式机器人的末端位姿;基于参考目标定位与末端位姿计算装配误差,PID控制器基于装配误差调节分布式机器人的关节空间。该方法显著降低了计算开销,并提升了测量精度与鲁棒性。
本发明授权一种用于多机器人协同装配的形变在线测量与管控方法在权利要求书中公布了:1.一种用于多机器人协同装配的形变在线测量与管控方法,其特征在于,包括: S1:通过分布式机器人及其末端布置的相机实时采集装配过程中工件的多视角表面图像;并将各视角表面图像分别输入基于数字图像相关技术训练的深度学习模型,输出各视角表面图像对应的最优像素位移,并将各视角表面图像对应的最优像素位移转换为空间位移标签;深度学习模型以编码器-解码器为主干网络; 深度学习模型的训练过程包括: 步骤1:通过分布式机器人末端布置的相机获取历史装配过程中工件的表面散斑图像和各变形帧图像; 步骤2:基于畸变参数和相机的内参对各变形帧图像进行像素去畸变处理; 步骤3:采用数字图像相关技术,基于表面散斑图像和去畸变处理的各变形帧图像,计算出各变形帧图像对应的最优像素位移、像素级应变场分量; 步骤4:以各变形帧图像、相机参数作为深度学习模型的输入,以分割预测概率、各变形帧图像对应的最优像素位移、像素级应变场分量为输出,训练深度学习模型,包括: 基于分割预测概率、各变形帧图像对应的最优像素位移、像素级应变场分量,与对应的真值计算联合损失,最小化联合损失以训练深度学习模型; 联合损失表示为: ; 其中,表示联合损失,表示第一损失权重,表示第二损失权重,表示第三损失权重,表示第四损失权重,表示第五损失权重,表示分割预测损失,表示像素位移预测损失,表示最优像素位移的真值,表示预测的最优像素位移,表示应变场预测损失,表示像素级应变场分量的真值,表示预测的像素级应变场分量,表示平滑正则,表示多视角一致性项; S2:融合各视角表面图像对应的空间位移标签,得到融合位移场; S3:基于融合位移场与名义路径规划点,确定分布式机器人的末端位姿;基于参考目标定位与末端位姿计算装配误差,装配误差的计算式为: ; ; 其中,表示时刻的装配误差,表示时刻的参考目标定位,表示时刻分布式机器人的末端位姿,表示时刻的名义路径规划点,表示时刻像素点的融合位移场; PID控制器基于装配误差调节分布式机器人的关节空间。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人湖南大学,其通讯地址为:410082 湖南省长沙市岳麓区麓山南路1号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励