Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 湖南视觉伟业智能科技有限公司夏东获国家专利权

湖南视觉伟业智能科技有限公司夏东获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉湖南视觉伟业智能科技有限公司申请的专利融合实体类型的BERT知识图谱补全方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116010622B

龙图腾网通过国家知识产权局官网在2025-09-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310047134.8,技术领域涉及:G06F16/36;该发明授权融合实体类型的BERT知识图谱补全方法及系统是由夏东设计研发完成,并于2023-01-31向国家知识产权局提交的专利申请。

融合实体类型的BERT知识图谱补全方法及系统在说明书摘要公布了:本发明公开了融合实体类型的BERT知识图谱补全方法及系统,将实体信息的外部知识即实体类型作为实体信息的补充,更好地获取实体的语义信息,提高模型输入端的文本增强表示,使用多头注意力机制的Transformer编码器实现特征获取和序列编码,使用少量的标注三元组进行微调,有效实现隐含关系的挖掘,实现快速、准确的对多源异构数据进行清洗。

本发明授权融合实体类型的BERT知识图谱补全方法及系统在权利要求书中公布了:1.一种融合实体类型的BERT知识图谱补全方法,其特征在于,包括以下步骤: 构建BERT知识图谱补全模型:所述BERT知识图谱补全模型包括输入层、编码层和输出层,所述输入层用于构建输入文本的头实体、头实体类型、关系、尾实体和尾实体类型的表示序列;并将所述头实体、头实体类型、关系、尾实体和尾实体类型的表示序列拼接成输入序列;所述编码层用于对输入序列进行编码,并提取编码后的输入序列不同层次的语义特征,并对不同层次的语义特征进行拼接;所述输出层用于计算拼接后的语义特征的预测概率,并计算模型预测概率与预期概率的距离来调整BERT知识图谱补全模型的网络参数; 训练所述BERT知识图谱补全模型,并使用训练好的BERT知识图谱补全模型对输入文本进行分类预测; 所述编码层采用双向Tansformer编码器对输入序列进行编码,并采用多头注意力机制提取编码后的输入序列不同层次的语义特征,并对不同层次的语义特征进行拼接;所述输出层采用sigmod函数计算拼接后的语义特征的预测概率,并计算模型预测概率与预期概率的距离,判断所述距离是否超过预设阈值,若距离超过阈值,则调整补全模型的网络参数;所述输出层使用[CLS]的最终隐藏状态作为输入序列的深层表示和模型的输出; 所述编码层包括多头注意力层、第一残差归一化层、前馈网络层、第二残差归一化层; 所述多头注意力层用于将输入向量进行注意力计算,得到注意力序列bi; 所述第一残差归一化层用于将所述输入向量与注意力序列bi进行相加得到b′i,并对b′i做层归一化处理; 所述前馈网络层使用线性修正单元对层归一化处理后的b′i进行线性变换; 所述第二残差归一化层用于对线性变换后的b′i做层归一化处理,并将层归一化处理后的b′i映射为一个表示序列; 训练所述BERT知识图谱补全模型,包括: 预训练阶段:使用大量无标注数据对BERT知识图谱补全模型进行预训练,在预训练阶段采用遮蔽词预训练和预测下一个句子的方法进行结合,得到预训练初始参数; 微调阶段:在不改变BERT内部结构的基础上,在编码层后面添加一个输出层,少量标注三元组参与BERT知识图谱补全模型的网络参数调整;最后,由[CLS]特殊标记的编码结果作为模型的输出。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人湖南视觉伟业智能科技有限公司,其通讯地址为:410000 湖南省长沙市高新开发区麓天路28号金瑞麓谷科技园C11栋202;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。