Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 重庆理工大学兰利彬获国家专利权

重庆理工大学兰利彬获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉重庆理工大学申请的专利一种基于局部-全局注意力的全Transformer视频摘要方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119182978B

龙图腾网通过国家知识产权局官网在2025-10-14发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411235153.4,技术领域涉及:H04N21/8549;该发明授权一种基于局部-全局注意力的全Transformer视频摘要方法是由兰利彬;蒋璐;刘小娟;崔贯勋;李洪兴;李颜心;夏遵辉;蔡鹏洲设计研发完成,并于2024-09-04向国家知识产权局提交的专利申请。

一种基于局部-全局注意力的全Transformer视频摘要方法在说明书摘要公布了:本发明涉及一种基于局部‑全局注意力的全Transformer视频摘要方法,该方法使用全Transformer采用编码器‑解码器结构,采用了有监督的方式进行视频摘要,并将其视为序列到序列的学习问题,直接将全Transformer应用于视频摘要任务,将原始Transformer中的全注意力机制替换为局部与全局稀疏注意力的组合,这使得模型能够在减少计算成本的同时捕捉长距离依赖关系。本发明中的编码器和解码器堆叠方式与原始Transformer相同,而局部‑全局稀疏注意力仅在编码器端中使用。在两个公开的多媒体基准数据集TVSum和SumMe上的实验表明,该方法能够大幅度超越其他视频摘要方法。

本发明授权一种基于局部-全局注意力的全Transformer视频摘要方法在权利要求书中公布了:1.一种基于局部-全局注意力的全Transformer视频摘要方法,其特征在于:包括如下步骤: S1:获取训练集,其中训练集中包括多段原始视频和其对应的视频摘要; S2:构建摘要生成模型FullTransNet,所述FullTransNet采用完整编码器-解码器结构的标准Transformer,并使用局部-全局稀疏多头自注意力机制LGS-MHSA代替全注意力; 编码器由N个堆叠的编码器层组成,每个编码器层,除了第一个编码器层之外,都会接收前一个编码器层的输出作为输入,每个编码器层对输入序列进行一系列变换,逐步提取适合摘要的更高层次的语义信息; 解码器由N个堆叠的解码器层组成,解码器的层数与编码器层数相同,第一个解码器层的输入是视频摘要及其位置编码,除了第一个解码器层外,每个解码器层的输入包括两部分:前一个解码器层的输出和来自编码器的上下文表示;所述上下文表示包含来自原始视频的帧间关系信息; S3:训练FullTransNet得到最优FullTransNet,在训练过程中,解码器使用的教师强制方法,解码器使用来自训练集的真实值作为输入;根据损失函数反向传播更新编码器和解码器的参数,纸质损失不再下降训练结束; S4:将一段新视频输入最优FullTransNet,输出该新视频的视频摘要。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人重庆理工大学,其通讯地址为:400054 重庆市巴南区红光大道69号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。