Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 东北大学韩东红获国家专利权

东北大学韩东红获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉东北大学申请的专利改进Transformer的情感增强对话生成方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115048943B

龙图腾网通过国家知识产权局官网在2025-07-04发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210652231.5,技术领域涉及:G06F40/35;该发明授权改进Transformer的情感增强对话生成方法是由韩东红;高攀;张雪姣;石玲玲;李婧;王志瑞;刘莹设计研发完成,并于2022-06-10向国家知识产权局提交的专利申请。

改进Transformer的情感增强对话生成方法在说明书摘要公布了:本发明涉及人机对话技术领域,尤其涉及改进Transformer的情感增强对话生成方法。其主要针对现有人机对话情感标注质量不高,机器不能准确的感知用户的情感并且不能生成有情感的回复的问题,提出如下技术方案:包括在Transformer基础上对Transformer编码的自注意力层的改进,所述改进在于在Transformer的原自注意力层增加情感注意力模块,生成TEECG模型,所述TEECG模型包括Encoder层和Decoder层。本发明对原有的Transformer编码的自注意力层改进,具备对对话语句之间的语义和情感的捕捉,使得人机对话更具情感,解码器对对话中情感回复进行修正,生成的情感回复效果更好,主要应用于人机对话中语句情感的改进。

本发明授权改进Transformer的情感增强对话生成方法在权利要求书中公布了:1.改进Transformer的情感增强对话生成方法,其特征在于,包括在Transformer基础上对Transformer编码的自注意力层的改进,所述改进在于在Transformer的原自注意力层增加情感注意力模块,生成TEECG模型,所述TEECG模型包括Encoder层和Decoder层;具体的改进包括以下特征: 所述TEECG模型的输入为VADBW词向量表示的对话对U1,U2,对话为中文对话,对话对由n+m个单词组成,即U1=W1+W2+...,Wn,U2=W1+W2+...,Wm,TEECG模型的输出为i时刻生成第i个单词的概率分布; 所述Encoder层由L个相同的Encoder堆叠,前一个Encoder的输出作为后一个Encoder的输入,第一个Encoder的输入为满足问题描述要求的对话对U1,U1; 中文分词Wi采用词的多特征表示VADBW表示方法,具体公式为:IWi=WEWi+VADEWi+BEWi,整个对话对的词嵌入表述为两个部分:E1 0、E2 0,E2 0=[IW1,IW2,...IWm]; 所述Encoder由两个子层组成,一个为多头注意力层Multi-HeadedAttention,另一个为FFN,所述多头注意力层有两个,分别为通用的语义自注意力层和情感注意力层,计算公式为: Encoder前馈神经网络的输入为多头注意力层的输出和具体计算公式为:其中El为该子层的输出为向量的连接,EL为最后一个子层的输出; 所述Decoder层有L个Decoder堆叠组成,每个Decoder均包括三个子层,第一个子层是一个Mask的多头自注意力层,公式为:MDl=MultiHeadDl-1,Dl-1,Dl-1,D0=R,其中R是输出回复,第二个子层是有编码器-解码器注意力构成,计算公式为:CEl=MultiHeadMDl,EL,EL第三个子层是基于位置的FNN,计算公式为:Dl=FNNCEl。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人东北大学,其通讯地址为:110004 辽宁省沈阳市和平区文化路三巷11号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。