Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 石家庄铁道大学张云佐获国家专利权

石家庄铁道大学张云佐获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉石家庄铁道大学申请的专利基于多域感知特征融合的视频编码方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120455681B

龙图腾网通过国家知识产权局官网在2025-09-12发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510952216.6,技术领域涉及:H04N19/136;该发明授权基于多域感知特征融合的视频编码方法是由张云佐;李滢旭;胡宇博;霍磊;王凯;井海明;张志国;王玉江设计研发完成,并于2025-07-10向国家知识产权局提交的专利申请。

基于多域感知特征融合的视频编码方法在说明书摘要公布了:本发明公开了一种基于多域感知特征融合的视频编码方法,属于图像通信技术领域。所述方法包括以下步骤:对输入视频帧序列,提取空间域、时间域、频率域感知特征;对该多域感知特征归一化,通过动态融合权重机制为每个编码单元生成感知重要性因子;基于感知重要性因子构建感知失真评估,替换传统率失真目标函数,指导编码单元码率分配;依据感知重要性因子,利用双曲正切函数进行非线性映射,计算得到编码单元级量化参数调整量,并结合基础量化参数得到最终量化参数,实现自适应率失真优化。该方法能够精准识别视觉敏感区域,在保障主观视觉质量的同时显著降低码率。

本发明授权基于多域感知特征融合的视频编码方法在权利要求书中公布了:1.一种基于多域感知特征融合的视频编码方法,其特征在于,包括以下步骤: S1:对输入视频帧序列进行多域感知特征提取,所述多域感知特征包括空间域感知特征、时间域感知特征和频率域感知特征,具体提取方法如下: 空间域感知特征提取:针对每个编码单元,计算其覆盖像素点的边缘强度、对比度和空间掩蔽性特征,并加权融合为空间域综合感知特征; 时间域感知特征提取:针对每个编码单元,基于其覆盖像素点,提取反映帧间运动显著性的亮度变化特征,作为该编码单元的时间域感知特征; 频率域感知特征提取:针对每个编码单元,对其覆盖像素点进行傅里叶变换,并通过带通滤波提取人眼敏感的中频成分,计算该中频成分对应区域的均值,作为该编码单元的频率域感知特征; S2:对S1提取的多域感知特征分别进行归一化处理,并设计基于特征值动态自适应调整的融合权重机制,通过加权聚合生成每个编码单元的感知重要性因子,具体包括: 特征归一化:采用Min-Max方法将所有特征映射至[0,1]区间,消除量纲差异对特征表征的影响; 动态融合权重:计算随空间域、时间域、频率域感知特征自适应调整的权重,强化关键感知特征的影响,并通过Sigmoid函数实现权重的动态调整; 所述动态融合权重通过Sigmoid函数自适应调整计算公式包括: 空间域权重计算公式为:, 时间域权重计算公式为:, 频率域权重计算公式为:, 默认参数为,,;分别为归一化后的空间域感知特征、时间域感知特征和频率域感知特征; 感知重要性因子计算:将归一化后的多域感知特征与所述动态融合权重进行加权求和,最终得到编码单元的感知重要性因子,具体计算公式为: , 其中分别为空间域权重、时间域权重和频率域权重,分别为归一化后的空间域感知特征、时间域感知特征和频率域感知特征; S3:基于所述感知重要性因子构建感知失真评估值,并将视频编码标准方法中的率失真目标函数替换为,用于指导编码单元的码率分配,包括编码单元的比特资源分配及量化参数迭代优化;其中为视频编码标准方法中的失真项,为拉格朗日乘子,为编码所使用的码率; S4:根据S2计算得到的感知重要性因子,通过非线性映射函数计算每个编码单元的量化参数调整量;将视频编码标准方法中预设的基础量化参数值与量化参数调整量相加,得到该编码单元的最终量化参数值,用于视频编码,实现自适应率失真优化;所述非线性映射采用双曲正切函数实现量化参数调整量的非线性变换。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人石家庄铁道大学,其通讯地址为:050043 河北省石家庄市长安区北二环东路17号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。