Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 苏州罗盘网络科技股份有限公司王晔获国家专利权

苏州罗盘网络科技股份有限公司王晔获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉苏州罗盘网络科技股份有限公司申请的专利一种公共场所中的人员逗留行为检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118334743B

龙图腾网通过国家知识产权局官网在2025-07-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410478030.7,技术领域涉及:G06V40/20;该发明授权一种公共场所中的人员逗留行为检测方法是由王晔设计研发完成,并于2024-04-19向国家知识产权局提交的专利申请。

一种公共场所中的人员逗留行为检测方法在说明书摘要公布了:本发明公开了一种公共场所中的人员逗留行为检测方法,涉及公共行为检测技术领域,包括步骤如下:原始数据:在公共场所安装摄像头持续捕捉视频流,获得原始视频数据,并通过网络传输至预处理中心,对原始视频数据进行加密存储和访问控制,获得预处理后的目标数据;本发明基于深度学习技术,采用YOLOv5模型对公共场所安装摄像头所捕捉的目标行人进行检测、识别、筛选、标记和跟踪处理,精准地识别和追踪可疑人员的异常逗留和徘徊行为,通过ReID技术进一步对目标数据进行监测处理,并结合Deep‑SORT算法确定关联目标行人在多目标跟踪信息中的轨迹,实现了自动提取和分析人员的行为特征信息、运动轨迹的功能。

本发明授权一种公共场所中的人员逗留行为检测方法在权利要求书中公布了:1.一种公共场所中的人员逗留行为检测方法,其特征在于,包括步骤如下: S1、原始数据:在公共场所安装摄像头持续捕捉视频流,获得原始视频数据,并通过网络传输至预处理中心,对原始视频数据进行加密存储和访问控制,获得预处理后的目标数据; 所述原始视频数据的预处理步骤如下: 通过连接至公共场所的若干个摄像头,以持续方式捕获视频流,获得原始视频数据、标定为Ovd,且式中,x、y分别表示为视频流像素中随机变量,n1表示为持续视频流内的像素变量集,并通过网络传输至预处理中心; 从视频流中提取单独的帧,并使用高斯滤波器对每帧进行降噪、调整分辨率处理,则降噪计算公式为式中,GOvd表示为原始视频数据Ovd的高斯函数,σG表示为随机变量x、y的高斯分布标准偏差,则调整分辨率计算公式为式中,Px′,y′表示为调整Px,y分辨率后新像素点坐标,且Px,y表示为原始视频数据Ovd中的源像素点坐标,Px+i,y+j表示为在Px,y处的邻居像素,i、j分别表示为Px,y周围的邻域范围,wi,j表示为根据Px,y点到Px+i,y+j点之间距离加权平均计算出的权重; 在传输过程和存储前,对原始视频数据Ovd采用AES算法进行加密计算,获得加密后的数据信号、标定为Eds,则加密计算公式为Eds=AESOvd+K0,且式中,AES表示为加密函数,Ovd表示为原始视频数据,K0表示为密钥,分别表示为加密后读取的随机像素变量,表示为加密后的像素变量集; 同时,基于对数据信号可处理角色人员实施访问控制策略,确保只有授权人员能够访问和处理数据信号; 将加密后的数据信号Eds,为了便于传输或存储将加密后的数据格式进行标准化,即采用十六进制编码或Base64编码处理改变数据的表示方式存储和传输,以获取加密待处理数据、标定为Tds,且式中,X、Y分别表示为加密后数据信号Eds进行重新标准化编码表达的数据格式,N1表示为若干个目标数据集; 以及应用背景减除技术来突出移动目标,即使用背景差分算法从当前帧中减去背景模型来检测原始视频数据中的移动目标,以当前帧移动目标所在时刻t时,处于位置xt,yt的像素值为P′xt,yt,则背景差分计算公式为D′xt,yt=[P′xt,yt-B′x,y],式中,D′xt,yt表示为当前帧t时刻在位置xt,yt的像素与背景帧像素之间的绝对差值,B′x,y表示为背景模型中任意时刻所在位置的像素值,xt、yt分别表示为从目标数据Tds中读取t时刻移动目标所在位置的像素值; S2、目标检测:采用YOLOv5模型检测、识别、筛选并标记处目标数据中的行人,生成行人目标数据集; 所述行人目标数据集的获取逻辑如下: YOLOv5模型接收输入的目标数据Md3x0,y0,通过卷积层、残差层、下采样层、上采样层和路由层进行特征提取,则对于每个卷积层,使用卷积核进行特征提取,输出目标特征图、标定为TSx0,y0,卷积计算公式为式中,TSx0,y0表示为卷积层在位置x0,y0的输出特征图,K表示为卷积核,Md3x0+i0,y0+j0,k0表示为目标数据Md3x0,y0在卷积核K的操作输入值,Ki0,j0,k0表示为卷积核K在x0,y0位置处的值,i0、j0、k0分别表示为卷积核K中的三个不同的点x0+i0、y0+j0、k0的参数,x0+i0、y0+j0、k0表示为卷积核K中三个不同权重参数,b0表示为卷积层的偏置项; 将卷积计算后的目标特征图TSx0,y0进行批量归一化处理,则批量归一化的计算公式为且式中,表示为对输入的目标特征图TSx0,y0进行k个批次归一化的结果,k0表示为k个批次,表示为在k个批次中输入的目标特征图TSx0,y0,Bk0表示为批次平均值,ε表示为可学习参数,表示为批次方差,c′表示为控制缩放比例的除零正数,Yk0表示为在第k个批次中的预测输出值,λ表示为缩放因子的超参数,b′表示为调整预测值的偏移量平移项; YOLOv5模型将批量归一化输出的特征图会用作预测训练,生出预测输出值Yk0量和对应的置信度PY,且PY∈[0,1],并根据特征图的预测输出值Yk0生成预测框信息,且预测框信息包括类别概率、框位置和预测框宽高、分别标定为PC、BP和WH,即Yk0={PC、BP、WH}; 则类别概率PC是采用归一化指数函数通过预测每一个锚框属于每个类别的概率分布,设定则类别概率的计算公式为且0≤m,n2≤k,式中,PC表示为YOLOv5模型预测出目标特征的得分,Yk0m表示为预测输出值Yk0在当前m类别的特征向量,表示为k个类别的特征向量求和,n2表示为总共k个类别中的第n2类别; 框位置BP是采用了锚框机制,通过Sigmoid函数输出与锚框相关的偏移量,并根据偏移量、原边界框的中心坐标、预测框宽高WH的信息,来确定最终的边界框位置,则根据预测输出值Yk0设定预测边界框的中心坐标值为Yx,Yy,预测边界框的宽高度分别为Yw、Yh,且已知图像分割的网格单元的左上角坐标为Gx,Gy,宽度和高度分别为Gw、Gh,则采用Sigmoid函数计算的偏移量公式为dx=σYx+Gx,dy=σYy+Gy,且dw=Gw×eYw,dh=Gh×eYh,式中,dx、dy分别表示为在x轴和y轴方向上偏移量的大小,dw、dh表示为最终的边界框位置的宽高,σ表示为预测边界框的中心坐标值Yx、Yy的超参数,e表示为以自然常数e为底的指数函数,即框位置BP={dx,dy,dw,dh},预测框宽高WH={dw,dh}; YOLOv5模型在训练时,通过前向传播算法调整网络参数,以损失函数来最小化检测结果与实际标注之间的差距,不采用非极大值抑制NMS去除多余重叠框,保留每个行人若干个检测结果进行位置融合处理,并在训练后,对给定的新目标数据进行行人检测,生成只包含行人目标的数据集,即行人目标数据集、标定为Ptd,其中,损失函数的计算以及位置融合处理的方法至关重要,则损失函数包括坐标损失、对象置信度损失和类别损失,坐标损失的计算公式为式中,LCIoU表示为CIoU损失函数计算出来的损失值,IoU表示为交并比,表示为预测框位置BP和网格单元真实框Gx,Gy中心点的欧氏距离,表示为预测框和真实框两个框的最小闭包区域的对角线长度,α表示为权重系数,表示为衡量预测框和真实框宽高比的一致性; 对象置信度损失的计算公式为LBCE=-P0lnPY-1-P0×1-lnPY,式中,LBCE表示为采用二元交叉熵损失算法BCE计算出的对象置信度损失值,P0表示为检测行为人员的真实标签,且检测人员存在P0=1,检测人员不存在P0=0,PY表示为YOLOv5模型预测结果输出的检测对象置信度,且PY∈[0,1]; 类别损失的计算公式为式中,LPC表示为采用交叉熵损失算法计算出的预测的类别分布与真实类别分布之间差异损失值,k表示为类别总数,pYk表示为检测对象属于类别k的真实概率,pPCk表示为检测对象属于类别k的预测概率; 位置融合处理是采用平均融合算法获取检测目标行人最终的边界框坐标构建行人目标数据集Ptd,则平均融合算法的计算公式为且 式中,和分别表示为检测框融合后的中心点x轴坐标、中心点y轴坐标、宽度和高度的平均值,表示为融合框的置信度,k表示为类别总数,N2表示为检测到的边界框的个数,Yxi、Yyi、Ywi、Yhi分别表示为每个边界框的坐标位置和宽高; S3、目标追踪:采用Deep-SORT算法结合卡尔曼滤波、匈牙利算法对行人目标数据集中的目标行人进行级联匹配和轨迹预测,实现多目标跟踪,并获得多目标的运动轨迹信息; S4、行人重识别:采用ReID技术将公共场景中不同摄像头捕捉目标数据进行监测处理后,与多目标的运动轨迹信息进行目标行人的重识别,并结合Deep-SORT算法确定关联目标行人在多目标跟踪信息中的轨迹,获得轨迹关联数据,以避免ID跳变; 所述轨迹关联数据的获取逻辑如下: 使用卷积神经网络CNN模型从行人目标数据集Ptd中学习并提取具有区分度的行为特征信息、标定为fPtd,则具有区分度的行为特征信息是利用CNN模型中的卷积层计算公式为fPtd=ReLUW*Ptd+β0,式中,ReLU表示为激活函数,W表示为卷积核权重,β0表示为偏置项,*表示为卷积操作; 使用欧氏距离计算两个特征向量之间的距离进行特征匹配,产生关联的距离矩阵、标定为Dfi′j′,则根据行为特征信息fPtd设定两个特征向量式中,i′、j′分别表示为检测目标特征和目标行人的轨迹特征,且1≤i′,j′≤n的正整数,欧氏距离的计算公式为 根据产生关联的距离矩阵Dfi′j′,使用如匈牙利算法的匹配算法来关联目标行人的行为特征信息fPtd和多目标的运动轨迹信息HPtd|t0+1n,并关联成本矩阵并寻找最优匹配,得到轨迹关联数据、标定为rgn,则关联度计算公式为且rgn∈[0,1],式中,rgn表示为目标行人的行为特征信息fPtd和多目标的运动轨迹信息HPtd|t0+1n的关联,表示为检测目标特征和目标行人的轨迹特征向量之间的最小距离成本,n表示为检测目标的个数,则根据检测目标和对应的轨迹计算出彼此关联,则获取轨迹最优匹配结果; 为了避免ID跳变,Deep-SORT在轨迹匹配失败时不立即删除轨迹,而是使用一个时序计数器来跟踪每个轨迹自上次成功匹配以来的帧数; S5、徘徊检测:获取多目标的运动轨迹信息和轨迹关联数据后,采用基于运动轨迹路程的判定方法,根据位移和路程进行目标行人的徘徊判定,以判定目标人员是否存在逗留行为,生成徘徊检测结果; 所述徘徊检测结果的获取逻辑如下: 通过多目标的运动轨迹信息HPtd|t0+1n和轨迹关联数据rgn,采用路程和位移计算方法,并根据比较路程和位移的比例来判定目标行人是否在一个区域内逗留或徘徊; 其中,公共区域内检测并匹配多目标行人的最佳运动轨迹信息为式中,表示为多目标行人的最佳运动轨迹信息,x″、y″分别表示为最佳运动轨迹信息内目标行人在平面位置上x轴和y轴的坐标,t表示为最佳运动轨迹信息所持续的时间段,n3表示为检测目标的个数; 任意选定一个多目标行人的最佳运动轨迹信息并从目标行人的所在轨迹中找到开始点到结束点、分别标定为Btix″s,y″st、Btix″e,y″et,以及统计目标行人在最佳运动轨迹上连续移动的M个点的每个轨迹坐标、标定为Btix″″,y″Mt; 则根据目标行人的轨迹开始点到结束点分别计算目标行人的路程和位移,则位移计算公式为 路程计算公式为且M≥2; 根据路程和位移的比例计算结果为式中,Pp表示为路程和位移的比例,以及对于判定目标行人是否在一个区域内逗留或徘徊设置一个阈值、标定为Wt∈[0,0.75],式中,Wt表示为在一个区域内出现逗留或徘徊的行为,因此,比较比例和阈值的大小,当出现Pp>Wt,Pp∈0.75,1]时,则判断目标行人没有在一个公共区域内逗留或徘徊;当出现Pp≤Wt,Pp∈[0,0.75]时,则判断目标行人是在一个公共区域内逗留或徘徊; S6、检测结果:当徘徊检测结果判定目标行人处于徘徊状态时,立刻触发报警信号,并将检测到的目标行人异常行为和轨迹,以图像、视频片段、报警信息的形式通信传输并反馈报告给公共场所的安保人员,及时采取驱散、梳理和必要预警的响应措施。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人苏州罗盘网络科技股份有限公司,其通讯地址为:215000 江苏省苏州市工业园区星湖街1152号3-1室;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。