Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 西安理工大学宋霄罡获国家专利权

西安理工大学宋霄罡获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉西安理工大学申请的专利用于起重机械的人员态势感知及安全监测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115690835B

龙图腾网通过国家知识产权局官网在2026-03-27发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211096187.0,技术领域涉及:G06V40/10;该发明授权用于起重机械的人员态势感知及安全监测方法是由宋霄罡;周振华;梁莉;黑新宏设计研发完成,并于2022-09-08向国家知识产权局提交的专利申请。

用于起重机械的人员态势感知及安全监测方法在说明书摘要公布了:本发明公开了用于起重机械的人员态势感知及安全监测方法,具体包括如下模块:模块1,物体动态监测预警;模块2,人员作业监测登记;模块3,人员态势感知;模块4,车辆工况管理及人机交互;采用本发明,通过最终测试表明,本发明可实时识别吊装物体大小,动态设置警戒区域,对车辆视野盲区及吊臂下工作区域监管预警;硬件性价比高,功能更加丰富,自动化程度更高,系统实现了科学管理、安全施工,极大减少施工过程的安全隐患,健全起重机械施工预警机制,为起重机械工作时的安全提供多重保障。

本发明授权用于起重机械的人员态势感知及安全监测方法在权利要求书中公布了:1.用于起重机械的人员态势感知及安全监测方法,其特征在于,具体操作包括:物体动态监测预警、人员作业监测登记、人员态势感知和车辆工况管理及人机交互; 所述物体动态监测预警具体按以下步骤实施: 步骤1.1,根据反馈信息获取图像,通过起重机械吊钩获取的重量信息判断吊钩工作状态,随后利用视频流或调用摄像头ISAPI获取摄像机第一帧的图像,用于后续图像处理; 步骤1.2,提出基于多特征融合的显著目标检测方法,对步骤1.1捕获的图像进行显著性目标检测操作,通过视觉显著性变压器融合边界感知特征提取模块,预测目标的完整边界,将检测结果相关信息和参数传递给下一步进行操作; 步骤1.3,根据第一帧图像中识别的结果对物体进行目标跟踪; 所述步骤1.2中对图像进行显著性目标检测操作具体按以下步骤实施: 步骤1.2.1,采用基于令牌到令牌视觉转换器的变压器编码器模型作为主干,T2T-ViT迭代采用T2T模块,该模块由重组步骤和软拆分步骤组成,首先使用变换器层变换令牌T’,重构步骤之后进行软分裂,将图像块展开为一系列标记,以T0∈Rlo×ck2,其中序列长度lo计算如式1所示: 1 式中,lo:令牌T’的数量;h、ho和w、wo分别代表输入图像的长和宽;软分割的面片的长为k;s代表重叠和p代表填充; 最后的令牌序列T3与正弦位置嵌入相加,以编码2D位置信息,然后使用LEtransformer层对T3之间的远程依赖性进行建模,提取补丁令牌嵌入Tε∈Rl3×d,如下式2所示: 2 式中,其中MSA和MLP是transformer中多头注意力和多层感知机; 步骤1.2.2,转换器编码器和解码器之间插入一个转换器模块,以转换编码器补丁令牌,从编码器空间到解码器空间,获得转换的补丁令牌,在整合RGB和深度数据之间的互补信息后,采用交叉模态变换器CMT,由交叉模态激励层和自注意力机制组成,采用一个变换器层来获得每个级别i处的解码器令牌TDi,其中i=2,1,整个过程被公式化为: 3 式中,[,]表示沿令牌嵌入维度的串联;“”是指线性投影;为解码器令牌;TR2T为反向T2T过程; 步骤1.2.3,解码器旨在将补丁标记TC解码为显著性映射,采用基于多级令牌融合的令牌上采样方法和基于令牌的多任务解码器,先对补丁令牌进行上采样,然后进行密集预测; 对于显著性和边界预测,在最终解码器补丁标记与显著性和边缘标记ts和tb之间执行补丁任务注意;对于显著性预测,首先将嵌入查询∈并将ts嵌入密钥Ks∈R1×d和a值Vs∈R1×d;然后,采用补丁任务注意来获得与任务相关的补丁令牌: 4 5 式中,softplus为激活函数;ts为边缘标记;代表S和D标记的Query;代表键值;代表价值value;d代表边缘标记数量; 步骤1.2.4,为了得到更加显著的边缘特征,设计了边缘感知特征提取模块,边界感知特征提取模块的计算模型为: 6 7 8 9 式中,为卷积块为第i层的特征;表示Hadamard乘积,代表像素间的乘法运算;Conv·表示核大小为1×1卷积;ReLU·表示线性整流函数;·为连续的卷积操作;为一种边缘检测算子; 所述步骤1.3中目标跟踪具体按以下步骤实施: 步骤1.3.1,显著目标识别已经识别到物体,随后在目标跟踪方法中引入了NAS方法及权重共享策略,将主干架构的搜索空间编码为超级搜索网络,自建的Field数据库预训练是通过优化分类损失函数来执行的,如下式所示: 10 式中,代表优化分类损失函数;Nb为搜索网络,Wb表示Nb的参数;·为取最小值函数; 步骤1.3.2,为提高目标跟踪的精度,提出端到端训练的自适应注意力机制方法,采用两个自适应最大池化生成水平和竖直两个独立的方向感知特征图,能获取精确的空间位置信息,如式11所示;使用Sigmoid激活函数增加网络非线性防止模型过拟合,如式12所示: 11 12 式中:σ表示Sigmoid激活函数;∈RC×H×1和∈RC×W×1表示具有非线性的两个独立的方向感知中间注意力权重张量,h为特征图的长,w为特征图的宽; 步骤1.3.3,为了采用高效的神经结构,使用深度可分离卷积和倒置线性瓶颈层以及挤压激活模块来构建新的搜索空间,该空间由主干部分Ab和头部部分Ah组成; 步骤1.3.4,目标跟踪算法的搜索通道包括三个连续的阶段:预训练主干超级搜索网络、训练跟踪超级搜索网络,以及在训练的超级搜索网络上用遗传进化算法进行搜索; 步骤1.3.5,为了进一步提升对目标的跟踪速度,引入了降维与快速傅里叶变换技术,首先使用主成分分析PCA技术降维,构建目标模板,通过的重构误差ε来获得Pt,如式13所示,随后在正交约束=t的条件下,计算得到ε的最小解,对的自相关矩阵Ct进行特征值分解获得: 13 式中,Ct为自相关矩阵;·为目标模板;·T为转置的模板; 随后将降维后的目标模型完成对于滤波器分母的更新;如下式所示: 14 式中,为滤波器模板分母的更新公式;目标切片在第k维的分量对应的离散傅立叶变换后的值;代表的复共轭;自适应更新学习率; 利用实函数的傅立叶系数服从Hermitian对称这一性质,将傅里叶谱的中心移动到图像中心得到具有共辄对称性的矩阵达到改进傅里叶变换; 步骤1.3.6,对目标进行跟踪后,为达到警戒范围实时更新的目的,间隔500ms更新一次新的警戒范围参数值,目标框定与摄像头警戒范围设定的关系如下式所示: 15 式中,R1和R2表示预警框半径;表示识别框长度;α和β表示物体框和预警范围的夹角;a和b表示相机高度和吊车吊臂长度; 所述人员作业监测登记具体按以下步骤实施: 步骤2.1,摄像头采用人脸摄像头,对于吊装作业区域内的人员的面部识别抓拍,并上传至边缘计算板中,通过对文件夹的实时监控,将新进入文件夹的图片进行识别并标记为已识别; 步骤2.2,针对图像收集中出现的一定量的侧脸图像,在图像预处理上基于ARM的轻量级人脸关键点检测方法,MFD将知识蒸馏的思想引入到人脸关键点检测任务中,提高网络的轻量级检测速度; 步骤2.3,提出基于超分辨率重建的轻量级人脸识别方法; 步骤2.4,读入文件夹的照片,进行识别对比数据库的工作人员信息,当检测到的人员信息为非工作人员时,将通过语音报警提示工作人员注意; 所述步骤2.2中人脸关键点检测方法具体按如下步骤实施: 步骤2.2.1,MFD在人脸关键点检测器的基础上改进了骨干部分网络结构,使用小巧而高效的MobileNet-V3作为编码器,MFD设计了损失函数,损失函数如下式所示: 16 式中,M为样本个数,N为特征点个数,||*||为特征点的距离度量L1或L2距离;K=3,这一项代表着人脸姿态估计的三个维度,即yaw,pitch,roll角度,角度越高,权重越大;C为不同的人脸类别数,w为与类别对应的给定权重,如果某类别样本少则给定权重大; 步骤2.2.2,整个网络由两个子网组成,包括用于预测坐标的主干网和用于估计几何信息的辅助网,骨干网每具有重复n次相同的层,同一序列中的所有层具有相同数量的c个输出通道,每个序列的第一层具有步长s,扩展因子t始终应用于输入大小; 步骤2.2.3,将训练好的复杂网络的输出作为软目标,与硬目标共同指导简单网络训练,最后仅使用简单网络进行预测;知识蒸馏总损失由蒸馏损失Lsoft和硬损失Lhard加权组成,如式17所示;其中蒸馏损失Lsoft也叫软损失,如式18所示,硬损失Lhard如式19所示: 17 18 19 式中,表示知识蒸馏总损失;蒸馏损失Lsoft和硬损失Lhard;α为蒸馏损失Lsoft和硬损失Lhard的比例;代表学生网络的输出;代表教师网络的输出;是硬目标的特征矩阵; 其中步骤2.3中人脸检测方法具体按如下步骤实施: 步骤2.3.1,数据训练,对所采集的图像进行预处理,使用的数据集是融合CASIA-WebFace、IMDB-WIKI以及CMUPIE和自行采集数据的CICS数据集,将其属于同一个人的图片放到同一个文件夹里面,并且进行了人脸的提取和人脸的矫正; 步骤2.3.2,提出多层特征融合的超分辨率结构,使得人脸图像在识别之前能够提升图像的分辨率;首先进行浅层特征提取,随后对图像利用瓶颈残差模块进行深度特征提取,随后通过一个深度可分离卷积层对特进行重建;如式20所示: 20; 式中,为超分辨率重建输出结果;为卷积运算;F0为浅层特征;为瓶颈残差深度特征提取运算;为超分辨率重建输入; 步骤2.3.3,对输入的图像使用MTCNN方法检测并对齐,随后使用MoFaceNet-SR对所输入的图片提取特征,输出特征结果; 步骤2.3.4,根据步骤2.3.3获取的特征结果与数据库中的工作人员人脸特征信息进行相似度比较,得到一个规定阈值范围内的最佳结果,找到最匹配的工作人员; 所述人员态势感知具体按以下步骤实施: 步骤3.1,利用摄像头对于闯入警戒区域内的人员进行实时抓拍,并上传至边缘计算板中; 步骤3.2,本模块实现人员穿戴工作服以及佩戴安全帽的识别检测,提出轻量化的YOLOv5m-Light改进网络结构进行识别检测,增加俯视视角下人员穿戴工作服和佩戴安全帽的检测,检测吊装工作区人员的工作状态; 步骤3.3,通过算法对文件夹的实时监控,将新进入文件夹的图片通过人员态势感知方法对人员是否穿戴安全帽和工作服进行检测,若未穿戴安全帽和工作服的进行标记并保存至新的输出文件夹中; 所述步骤3.2中轻量化的YoLov5m-Light方法的具体按如下步骤实施: 步骤3.2.1,采用网络下载和自行拍摄的数据集,将图片内容进行标注预处理,标注有头部head、安全帽helmet、穿工作服hasWorkingClothes、未穿工作服noWorkingClothes;将待训练图像放入一个文件夹中,标注信息xml文件放入一个文件夹中; 步骤3.2.2,YOLOv5网络的骨干网采用CSPDarknet-53提取特征,将分组卷积和深度可分离卷积引入到网络中,改进网络模型; 步骤3.2.3,依次读取预处理好的图像信息,将图像分成S×S网格、然后将图像送入网络,生成S×S×B×5+C个结果,用非极大值抑制选出合适的预选框,根据结果求损失函数Loss并反向传播梯度下降,获取最终效果最佳的训练模型结果; 所述步骤3.3中安全帽和工作服识别的方法具体按如下步骤实施: 步骤3.3.1,检测到文件中新进入的照片,进行预处理,对非警戒进行遮盖的操作; 步骤3.3.2,处理后的结果传入模型中,开始检测图像中的人员是否穿戴工作服和安全帽,将未穿戴工作服和安全帽的人员标记并将结果保存在文件中,并将存储的人员闯入这段时间的视频转移至文件夹中,并通过摄像头自身的播音功能以及智能音响提示非工作人员闯入; 所述车辆工况管理及人机交互模块具体包括以下功能:视频播放功能,将监控画面显示在可视化界面;文件转移功能,实现存储文件的导出导入;手动人脸识别功能,增加识别的可靠性;关机和重启。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西安理工大学,其通讯地址为:710048 陕西省西安市碑林区金花南路5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。