Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 武汉大学沈志东获国家专利权

武汉大学沈志东获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉武汉大学申请的专利一种使用Entity显式图的生成式多文档摘要方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115293143B

龙图腾网通过国家知识产权局官网在2026-04-14发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210818286.9,技术领域涉及:G06F40/258;该发明授权一种使用Entity显式图的生成式多文档摘要方法是由沈志东;薛宜可设计研发完成,并于2022-07-12向国家知识产权局提交的专利申请。

一种使用Entity显式图的生成式多文档摘要方法在说明书摘要公布了:本发明针对现有技术的不足,提供一种使用Entity显式图的生成式多文档摘要方法。采用了基于SimBert的Entity图来代替传统的文档相似度构图来表达文档间的联系,对各个段落进行Entity抽取,每段的Entity拼接为一句话,之后使用SimBert计算所有段落之间的余弦相似度,经过阈值过滤,得到表示段落联系的显式图,基于神经网络且针对文档内实体的构图方式效果会优于人为定义的不灵活的规则。另外,本发明对图感知的注意力机制和层次化图注意力机制做出了改进,引入了门控机制和残差连接,使得显式图和隐式图信息能够更好的融合,并且给注意力机制学习到的隐式关系保留了残差通路,以确保网络学习到的信息占有更重要的地位,以此来指导生成式多文档摘要。

本发明授权一种使用Entity显式图的生成式多文档摘要方法在权利要求书中公布了:1.一种使用Entity显式图的生成式多文档摘要方法,其特征在于,预先构建生成式多文档摘要模型,模型包括Bert预训练模型输入模块、字符级编码Transformer模块、全局图编码模块、图解码层模块,所述方法包括: 将人工摘要对应的多个文档划分为多个段落后进行预处理,得到输入段落,具体为:使用实体抽取工具抽取每个段落中的实体Entity,每段的Entity拼接为一句话,然后使用SimBert表征拼接得到的句子,在得到的句子Embedding之间计算所有段落之间的余弦相似度,根据余弦相似度得到表示段落联系的显式图; 通过Bert预训练模型输入模块根据输入段落的字符得到字符初步Embedding; 将字符初步Embedding以段落为单位输入字符级编码Transformer模块,得到每个段落的初步Embedding以及经过段落内部信息交换的所有字符的Embedding; 将每个段落的初步Embedding输入全局图编码模块,其中,全局图编码模块将Transformer编码器结构中的多头注意力机制更换为图感知注意力机制,并引入显式图结构,通过显式图信息结合学习到的隐式关系,进行段落之间信息交互,得到经过段落信息交互的段落Embedding; 将字符初步Embedding、经过段落内部信息交换的所有字符的Embedding以及经过段落信息交互的段落Embedding输入图解码层模块,其中,图解码层模块将Transformer解码器的多头注意力模块更换为层次化图注意力模块,图解码层模块分为上下两层,上层为全局图注意力机制,使用预测字符对齐的图结构来改善编码器得到的段落级上下文信息;下层为字符级局部注意力,在全局图注意力的修正下改善每个段落内部的字符级上下文信息,然后将段落级上下文信息和字符级上下文信息进行拼接和线性变化,之后将线性变化后得到的向量通过全连接层和Softmax在字符空间中查找概率最大的字符作为下一个预测字符。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人武汉大学,其通讯地址为:430072 湖北省武汉市武昌区珞珈山街道八一路299号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。