纳博特南京科技有限公司牛鹏帅获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉纳博特南京科技有限公司申请的专利基于视觉触觉深度融合的机器人动态抓取控制方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN121157057B 。
龙图腾网通过国家知识产权局官网在2026-02-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511706848.0,技术领域涉及:B25J9/16;该发明授权基于视觉触觉深度融合的机器人动态抓取控制方法是由牛鹏帅;李彪;田思源;臧禹顺设计研发完成,并于2025-11-20向国家知识产权局提交的专利申请。
本基于视觉触觉深度融合的机器人动态抓取控制方法在说明书摘要公布了:本发明涉及一种基于视觉触觉深度融合的机器人动态抓取控制方法,包括以下步骤:首先,基于视觉信息提取目标物体的表面几何特征,计算抓取适应性评分,选择最优抓取点并规划无碰撞接近轨迹;其次,在接触建立阶段,通过触觉传感器检测接触事件,融合视觉与触觉数据进行坐标系统一,计算视觉‑触觉一致性评分,施加初始抓取力;再次,在稳持阶段,采用小波包能量熵和压力梯度进行滑移检测,结合自适应阻抗控制动态调整抓取力和阻抗参数。该方法实现了从接近、接触到稳持的全过程智能控制,提升了机器人抓取在动态环境中的适应性、稳定性和安全性。
本发明授权基于视觉触觉深度融合的机器人动态抓取控制方法在权利要求书中公布了:1.一种基于视觉触觉深度融合的机器人动态抓取控制方法,其特征在于,包括以下步骤: 步骤S1:视觉引导的抓取点选择与轨迹规划:基于视觉信息获取目标物体的点云数据,提取表面几何特征并计算抓取适应性评分,选择最优抓取点与姿态,计算接触补偿量,并规划无碰撞的接近轨迹; 其中,计算抓取适应性评分的公式为:,Kg为高斯曲率,H为平均曲率,Rfinger为夹爪接触面宽度,▽S为表面梯度,σg为梯度敏感度参数; 其中,计算接触补偿量的公式为:,,FN为预计抓取力,Robject为物体在抓取点处的局部曲率半径,E*为等效弹性模量; 步骤S2:接触建立阶段的多模态融合控制:利用触觉传感器检测接触事件,建立视觉与触觉数据的坐标系统一,计算视觉-触觉一致性评分,基于该评分施加初始抓取力; 其中,通过求解以下优化问题来实现视觉和触觉坐标系统一:,T为待求的变换,Dvis为视觉观测的变形场,Dtac为触觉测量的变形场,α为正则化参数,▽为正则化项; 其中,计算视觉-触觉一致性评分的公式为:,Mvis为视觉接触区域掩模,Ptac为触觉传感器在点x,y处的压力值,Ω为积分区域; 步骤S3:抓取稳持阶段的滑移检测与自适应阻抗控制:在稳持阶段,实时分析触觉压力信号,通过小波包能量熵和压力梯度进行滑移检测,基于滑移检测结果自适应地调整抓取力及阻抗控制参数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人纳博特南京科技有限公司,其通讯地址为:210000 江苏省南京市江北新区惠达路6号北斗大厦5楼501室;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励