Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 杭州电子科技大学俞勇获国家专利权

杭州电子科技大学俞勇获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉杭州电子科技大学申请的专利一种基于注意力和空间变换网络结合的视频人群计数方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116385964B

龙图腾网通过国家知识产权局官网在2025-07-08发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310296472.5,技术领域涉及:G06V20/52;该发明授权一种基于注意力和空间变换网络结合的视频人群计数方法是由俞勇;郑小青;孔亚广设计研发完成,并于2023-03-24向国家知识产权局提交的专利申请。

一种基于注意力和空间变换网络结合的视频人群计数方法在说明书摘要公布了:本发明公开了一种基于注意力和空间变换网络结合的视频人群计数方法,首先获取摄像头采集的两帧连续图像,并将其输入至网络的前端encoder模型中,并输出当前帧以及当前帧的上一帧的密度图,其次将输出的当前帧以及当前帧的上一帧的密度图进行特征融合,并传到网络的后端decoder模型中,输出人流图。然后建立损失函数,并通过获取的真实密度图训练集对网络进行训练。最后将待处理的视频帧作为输入,网络输出待预测视频帧中人数量的计算结果。本发明使得解决人群计数问题的角度更加全面、有效减轻深层网络很难训练且容易梯度消失和爆炸的问题,并且分别学习了通道的重要性和空间的重要性。

本发明授权一种基于注意力和空间变换网络结合的视频人群计数方法在权利要求书中公布了:1.一种基于注意力和空间变换网络结合的视频人群计数方法,其特征在于,包括如下步骤: S1、获取摄像头采集的当前帧和当前帧的上一帧,得到两帧连续图像; S2、将当前帧和当前帧的上一帧图像,分别输入至网络的前端编码encoder模型中,并输出当前帧的密度图以及当前帧的上一帧的密度图,其中encoder模型由空间转换网络STN、残差网络和注意力机制组成; S3、将S2中前端encoder模型输出的当前帧的密度图,以及当前帧的上一帧的密度图进行拼接concat形式的特征融合,则concat后的单个输出通道如下: 其中Zconcat表示concat后的单个输出通道,Xi对应于输出的当前帧的密度图的通道,Yi对应于当前帧的上一帧的密度图的通道,*表示卷积,Ki表示相应地卷积核,i为特征图的通道,c为特征图的总通道数; S4、将Zconcat作为输入,传到网络的后端decoder模型中,输出人流图; 所述decoder模型由四个空洞卷积组成; S5、建立损失函数,并通过获取的真实密度图训练集对网络进行训练; S5-1、真实密度图的获取,真实密度图是由对真实图像中人群区域内人头中心位置进行坐标标记,通过高斯平滑操作生成真实的人群密度图,真实密度图生成过程如下: 在每个输入的第t帧图像It中,注释了一组st个二维的点表示场景中人头的位置;将包含这些点的位置在密度图中置为1,不包含这些点的位置在密度图中置为的0,将该密度图与具有平均值μ和标准差σ的高斯核卷积,获得相应的地面真实密度图公式如下所示: 其中Pj表示位置j的中心; S5-2、损失函数为: 其中,是在时间t和位置j的人数,即地面真实的密度图,α为权重,为在时间t-1和t之间从地点i移动到位置j的人数,Nj为第j个位置的相邻位置; S6、将待处理的视频帧作为输入,重复步骤S2-S5,输出待预测视频帧中人数量的计算结果。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州电子科技大学,其通讯地址为:310018 浙江省杭州市下沙高教园区2号大街;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。