Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 成都大学胡德昆获国家专利权

成都大学胡德昆获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉成都大学申请的专利一种基于事件相机和视觉相机协同的运动训练评估系统及方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN113688741B

龙图腾网通过国家知识产权局官网在2026-03-31发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202110985385.1,技术领域涉及:G06V40/20;该发明授权一种基于事件相机和视觉相机协同的运动训练评估系统及方法是由胡德昆设计研发完成,并于2021-08-26向国家知识产权局提交的专利申请。

一种基于事件相机和视觉相机协同的运动训练评估系统及方法在说明书摘要公布了:本发明公开一种基于事件相机和视觉相机协同的运动训练评估系统及方法,应用于计算机视觉领域,针对现有基于光学相机的训练评估系统无法捕获快速的运动轨迹和肢体形态,无法有效的评价动作质量,无法提供有效的训练指导的问题;本发明以事件流形式提供连续的人体运动事件,可达到毫秒级运动响应,且不受高速运动物体运动模糊效应的影响,还能够提供更高的动态范围,在强光、逆光、明暗变化剧烈的场景下可提供更有效的运动训练评估。通过视觉相机和事件相机协同,不仅可以评估快速动作的精准度,还能以可视情景交互的形式进行标准动作示教和训练。

本发明授权一种基于事件相机和视觉相机协同的运动训练评估系统及方法在权利要求书中公布了:1.一种基于事件相机和视觉相机协同的运动训练评估系统,其特征在于,包括:事件采集终端、主机、以及交互端; 所述事件采集终端包括事件相机与事件流获取模块,事件流获取模块通过USB连接到事件相机; 所述主机包括事件轨迹提取模块、动作识别模块和动作质量评估模块;事件轨迹提取模块根据事件采集终端的输出提取事件轨迹,动作识别模块根据提取的事件轨迹进行动作识别,动作质量评估模块对识别的动作进行评估; 所述交互端用于显示动作识别结果; 所述事件采集终端还包括视觉相机,用于将采集的视频流传输至交互端进行动作回放; 所述运动训练评估系统采用的方法包括: S1、将事件相机实时捕获的目标区域的运动事件表示为: et=x,y,t,p 其中,x、y为像素坐标,t为时间戳,p为极性,极性用于表示亮度的增加或降低; S2、将捕获的运动事件转换为事件流图像; S3、对每一个事件流图像,提取其中的事件轨迹; S4、提取时间轨迹中的特征; S5、将提取出的特征输入长短时记忆网络,输出动作类别与动作相似度; 步骤S1具体为: 所述步骤S1中,主要包括事件表示和将相机捕获的事件转换为事件流图像,并对事件流图像进行预处理; 1事件表示 et=x,y,t,p; 用四元组x,y,t,p表示一个事件,其中x、y为事件发生的像素点二维坐标,t为事件产生的时间戳,单位为毫秒;p为事件信号的极性,亮度降低超过阈值为-1,亮度升高超过阈值为+1,亮度变化未超过阈值时,则不产生事件;阈值设置为0.2,表示亮度变化不超过20%;阈值为一个可设置的系统参数,不同的光照环境下需要进行调整,在系统启动后通过校准来设置该参数,如果采集到的事件流图像噪声比较多,需要增加阈值,反之亦然; 2事件流图像 由于事件相机是高动态,所以输出的是事件流,把某一个时刻即事件点的输出保存为一个图像,就是事件流图像; 事件流图像是流式的事件数据在事件维度上的积分图像,用事件三维数组表示,记为Eix,y,V,其中x、y为事件图像的像素点二维坐标,i为事件流图像的序号,V为图像对应点的极性累加值;即: ; 其中,ΔT=ti-ti-1为第i个事件累计间隔时间,对于高速运动的人体动作,取10ms以下,根据具体的运动进行灵活设置,ti和ti-1分别表示间隔终止和起始时间;ΔT固定长度,其取值方式采用滑动窗口模式,滑动窗口长度为w=ΔT2; 步骤S3具体为: A1、在事件流图像Ei中,对每个事件点Pix,y,vi,若事件发生次数vi小于阈值ε,则更新该时间点的vi=0,消除运动不显著点;ε=α·averagevi,vi0,1≥α≥0,α为过滤系数; A2、对经步骤A1处理后的事件流图像Ei进行形态学先膨胀再腐蚀闭运算; A3、对经步骤A2处理后的事件流图像Ei中每个事件点,消除离群噪声点; 步骤A3具体包括以下分步骤: A31、按照邻域扩展的方式逐步搜索当前事件流图像中每个事件点的邻域,计算各事件点邻域中与其最近点之间的欧式距离;对找到的第一个点,计算其欧氏距离; A32、根据当前事件流图像中所有事件点的最近的欧氏距离,得到当前事件流图像对应的最近欧氏距离表; A33、根据当前事件流图像对应的最近欧氏距离表,计算欧氏距离分布的平均值和标准差; A34、若某个事件点的最近的欧式距离大于均值与标准差之和,则将其作为离群噪声点去除,记留下来的事件图像为ETi; A35、使用Canny边检测法从ETi中提取其边缘信息保存为边图Ei,每个事件流图对应一个边图; 步骤S5具体为: 可视互动评估将训练动作轨迹、标准动作轨迹和视觉相机的视频流叠加输出,为训练者提供动作误差的可视展示,方便训练者改进动作,减少误差,提升训练效率;主要步骤如下: 基于事件相机和视觉相机在互动训练场景配准时得到的变换矩阵参数,将原始获取的RGB图像转化为适配事件相机的成像大小的配准后图像; 1根据识别的动作类型获取标准库中存储的标准动作轨迹,通过轨迹图像的尺度不变特征变换特征匹配确定动作匹配起始时间点; 2从起始点开始,采用基于形状的方法计算标准动作轨迹和训练动作轨迹的相似性,实现动作质量评估; 3根据事件流和视频流时间同步的特点,确定视觉相机中对应于时间信息的配准后图像; 4将训练动作轨迹、标准动作轨迹叠加于配准图像得到可视互动评估结果; 5训练者通过视频查看动作相似度和视觉误差,以改进动作,提升质量。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人成都大学,其通讯地址为:610000 四川省成都市外东十陵成都大学;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。