太原理工大学郝惠敏获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉太原理工大学申请的专利一种基于深度学习的零件分拣方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116206128B 。
龙图腾网通过国家知识产权局官网在2026-01-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310188108.7,技术领域涉及:G06V10/44;该发明授权一种基于深度学习的零件分拣方法是由郝惠敏;魏杰;方静;黄家海;兰媛;韩礼生设计研发完成,并于2023-03-02向国家知识产权局提交的专利申请。
本一种基于深度学习的零件分拣方法在说明书摘要公布了:本发明针对工业生产线上零件高精度、智能化机械臂分拣存在的问题,公开了一种基于深度学习的零件分拣方法。该方法构建零件分拣模型,在Backbone网络中引入CA注意力机制,再经过特征融合层提取零件图像的特征抓取点和姿态角特征,并结合卷积层和检测层获得零件的最佳抓取点和抓取姿态角,经过坐标转化后传输给机械臂,最终实现零件的实时分拣。本发明将抓取点坐标与零件姿态角相结合,实现了零件快速、准确、高效地分拣,提升了零件分拣的准确度与效率。
本发明授权一种基于深度学习的零件分拣方法在权利要求书中公布了:1.一种基于深度学习的零件分拣方法,其特征在于:采用以下步骤: 步骤1采集零件图像并确定最佳抓取要素采用深度相机采集静止传送带上、位于深度相机正下方i零件j表面向上的图像Pij,i为生产线上涉及的所有种类零件的标号,i为≥30的整数,j是某种零件置于传送带上时所具有的不同上表面的个数,j为大于等于1的整数;i零件在j表面向上时机械臂抓取的最佳空间坐标为xij,yij,zij,其中,xij和yij分别为i零件质心的水平位置映射到图像Pij中的横坐标和纵坐标,图像Pij的坐标系为像素坐标系:以Pij图像的左上角为坐标原点OUV,以图像Pij水平向右的方向为x轴,以垂直于x轴向下的方向为y轴;zij为i零件j表面向上时相机到i零件质心所在水平面的距离;i零件在j表面向上时机械臂抓取的最佳姿态角为θij; 步骤2在像素坐标系中标注Pij中零件的特征抓取点和姿态角信息采用labelme标注软件标注Pij中零件特征抓取点的json标签:[labelij,xij,yij],其中,labelij为i零件j表面的字符识别标签;用roLabelImg标注软件标注Pij中零件姿态角的yaml标签:[classi,cxij,cyij,wij,hij,θij],其中,classi为i零件的种类识别标签,在图像Pij中构建一个矩形R',R'的4条边分别与图像Pij像素坐标系的x轴和y轴平行,且R'的尺寸与框住i零件的最小矩形尺寸相同,旋转R'得到R,使R为框住零件i的最小矩形,wij和hij分别为R的宽和高,其中,wij为R'与x轴平行的边的边长;cxij和cyij为R的中心坐标,θij为R的wij与x轴反方向的夹角,0°≤θij180°; 步骤3特征点、姿态角的数据标签转化将步骤2中的json标签转化为特征点数据标签:[labelij,xij,yij,lwij,lhij],其中,lwij、lhij为大小相同的像素值,10≤lwij≤30,10≤lhij≤30;将步骤2中的yaml标签转化为姿态角数据标签:[xij1,yij1,xij2,yij2,xij3,yij3,xij4,yij4,θij,classi,zij],其中,xij1,yij1、xij2,yij2、xij3,yij3、xij4,yij4分别为i零件j表面向上时图像Pij中R的4个顶点坐标, 当0°≤θij≤90°时, xij1=cxij-wij2×cosθij-hij2×sinθij,yij1=cyij-wij2×sinθij+hij2×cosθij, xij2=cxij-wij2×cosθij+hij2×sinθij,yij2=cyij-wij2×sinθij-hij2×cosθij, xij3=cxij+wij2×cosθij+hij2×sinθij,yij3=cyij+wij2×sinθij-hij2×cosθij, xij4=cxij+wij2×cosθij-hij2×sinθij,yij4=cyij+wij2×sinθij+hij2×cosθij; 当90°θij180°时,θij′=θij-90°, xij1=cxij-wij2×cosθij′-hij2×sinθij′,yij1=cyij-wij2×sinθij′+hij2×cosθij′, xij2=cxij-wij2×cosθij′+hij2×sinθij′,yij2=cyij-wij2×sinθij′-hij2×cosθij′, xij3=cxij+wij2×cosθij′+hij2×sinθij′,yij3=cyij+wij2×sinθij′-hij2×cosθij′, xij4=cxij+wij2×cosθij′-hij2×sinθij′,yij4=cyij+wij2×sinθij′+hij2×cosθij′; 由所有步骤1采集获得的零件的图像Pij及其对应的特征点数据标签和姿态角数据标签组成零件分拣模型数据集,将零件分拣模型数据集按照8:2的数量比例划分为训练集和验证集; 步骤4建立零件分拣模型以训练集中的Pij图像为输入,以图像对应特征点数据标签和姿态角数据标签中的classi、xij、yij、zij和θij为输出,训练零件分拣模型;零件分拣模型包括特征提取网络和输出层,其中,特征提取网络又包括BackBone网络和特征融合层,BackBone网络中特别引入了坐标注意力机制,通过坐标注意力机制实现对零件特征信息的进一步特征提取,特征融合层包括4组子模块,其中2组由CBS卷积模块、上采样模块、concat模块和C3CBAM模块组成,另外2组由CBS卷积模块、concat模块和C3CBAM模块组成,BackBone网络输出的不同维度的特征图输入特征融合层进行特征融合,Pij图像经过特征提取网络后得到零件特征图;输出层又包括卷积层、零件姿态角检测层和特征点检测层;由特征提取网络输出的零件特征图输入输出层,经卷积、零件姿态角检测层和特征点检测层的分类后输出classi,xij,yij,zij和θij;所述零件分拣模型的相关参数:batchsize=16或32,epoch=200-400,momentum=0.732-0.895,0.01≤lr≤0.02,2≤r≤8,其中,r为偶数且为整数; 步骤5机械臂抓取坐标转化将零件分拣模型输出的xij和yij分别经过坐标转换后得到世界坐标系中的对应坐标xij′和yij′,然后将classi,xij′,yij′,zij,θij传输给机械臂,最终实现机械臂对零件的分拣。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人太原理工大学,其通讯地址为:030024 山西省太原市万柏林区西矿街53号太原理工大学柏林校区;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励