成都正西液压设备制造有限公司;西南交通大学王慕帅获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉成都正西液压设备制造有限公司;西南交通大学申请的专利一种机床操作人员手套佩戴情况检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116563787B 。
龙图腾网通过国家知识产权局官网在2025-11-07发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310525417.9,技术领域涉及:G06V20/52;该发明授权一种机床操作人员手套佩戴情况检测方法是由王慕帅;曾欢;肖世德;孟祥印设计研发完成,并于2023-05-10向国家知识产权局提交的专利申请。
本一种机床操作人员手套佩戴情况检测方法在说明书摘要公布了:本发明属于智能监控技术领域,具体涉及一种机床操作人员手套佩戴情况检测方法。本发明采用人工神经网络的方式完成了对于手套的检测。针对现有技术中只针对单一材质、单一手套进行检测,无法覆盖工厂内常用手套的类型的问题,本发明根据材质和颜色将手套进行分类,并且为了提高检测效率,本发明加入了对操作员空手的检测。针对操作员将手套遗落在机床附近而造成误检的情况,本发明加入了人体关键点检测,并且判定手腕关键点是否落在手套目标框内,最终综合得到工人佩戴手套的判定。
本发明授权一种机床操作人员手套佩戴情况检测方法在权利要求书中公布了:1.一种机床操作人员手套佩戴情况检测方法,其特征在于,包括以下步骤: S1、获取机床附近的图像; S2、根据获得的图像,判断是否存在人体和手套,若是,则进入S3,否则回到S1;其中判断是否存在人体和手套的具体方法是: 对获取的图像进行人体检测,若检测到人体,则使用深度模型估计人体的姿态,完成对手腕关键点的检测并输出xM,yM,VisM,xM、yM为人体关键点检测中手腕的位置坐标,VisM是关节可见度,如果可见度低于0.5则认为该图像中不存在手腕关节,同时判断是否佩戴手套;若未检测到人体,则回到S1; 所述判断是否佩戴手套的方法是利用改进的YOLOv3网络进行判断,改进的YOLOv3网络是在传统的YOLOv3网络模型的基础上,移除大尺度和小尺度的输出分支,对应为移除13×13和52×52的输出尺寸,构建单尺度的YOLOv3网络架构,并且使用上采样将大尺度特征与小尺度特征和中等尺度特征进行融合,使中等目标拥有小目标和大目标的特征,在特征拼接之后再进行卷积,得到通道数为9的特征图;改进的YOLOv3网络的输入图像被划分为S*S个网格,然后对每个网格去检测中心点落在格子内的目标;每个单元格会预测B个边界框信息,包括5个元素:x,y,w,h,Cconfidence,其中,x,y,w,h分别代表边界框的中心坐标与宽、高值相对于所在网格的相对值;Cconfidence为置信度,其反映是否包含目标物体以及包含目标物体情况下的准确率,定义为: 其中PrObject表示图像中物体中心点落在当前网格内的概率,代表当前网络预测物体边界框与真实物体边界框的交并比: 其中,BBoxtruth与BBoxpred分别表示真实物体边界框与网络预测边界框,通过计算边界框置信度时引入使网络对输出边界框的质量进行判断;每个网络还分别预测C个独立的物体类别概率,C为数据集中包含物体种类的个数;训练过程中,物体类别概率被定义为当网络中包含物体时物体类别的条件概率PrCi|Object;每一个网格会预测多个边界框,每一个边界框对应一个置信度,通过设置置信度阈值,执行非极大值抑制,去除置信度低于阈值的边界框,并取置信度高于阈值的边界框的并集作为预测结果; 对改进的YOLOv3网络训练的具体方法是:获取实际拍摄的工人图像并进行标注作为训练数据,因改进的YOLOv3网络使用一组特征图同时表示预测图像中物体的位置与类别,输出的通道数为9的特征图包括目标框位置坐标、目标框的宽度和高度、以及类别信息,其中类别信息对应训练数据中的三种不同手套和无手套,其中三种不同手套的分类方式为根据材质或颜色;采用的损失函数为: 其中,表示第i个网格内第j个边界框是否负责对图像中物体进行预测,当第i个网格内第j个边界框负责对物体进行预测时,反之,表示图像中是否存在物体中心点坐标落在第i个网格区域内,当有物体中心点落入第i个网格区域内反之,表示第i个网格内第j个边界框是否不负责对图像中物体进行预测;与的取值相反;x,y,w,h代表真实物体边界框尺寸;表示网格预测边界框尺寸;C与分别代表真实边界框置信度与网格预测物体类别概率;λcoord用来平衡损失函数中边界狂尺寸误差比;λnoobj用来平衡不包含物体的网格区域内边界框置信度分数误差;公式的前两项表示回归损失,为加强对中等目标的误差表达,在该项前增加和的系数;第三、四项是置信度损失误差,采用交叉熵函数;最后一项为分类损失,选择交叉熵函数作为损失函数; 训练好的改进的YOLOv3网络在输入图像后,得到的输出为xb,yb,wb,wb,Cb,wb、hb为手套检测中输出的目标框的宽度和高度;xb、yb为手套检测中输出的目标框的中心点位置,Cb为置信度; S3、判定手腕关键点是否落在手套目标框附近,具体为,如果: 成立,则判定手腕关键点落在手套目标框附近,即佩戴手套,否则未佩戴手套。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人成都正西液压设备制造有限公司;西南交通大学,其通讯地址为:610300 四川省成都市青白江区大弯智慧大道1698号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励