Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 南京大学王中风获国家专利权

南京大学王中风获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉南京大学申请的专利基于Transformer网络的文本处理方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115455979B

龙图腾网通过国家知识产权局官网在2026-04-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211165132.0,技术领域涉及:G06F40/284;该发明授权基于Transformer网络的文本处理方法及系统是由王中风;周晨晨;路思远;林军设计研发完成,并于2022-09-23向国家知识产权局提交的专利申请。

基于Transformer网络的文本处理方法及系统在说明书摘要公布了:本申请涉及自然语言处理技术领域,提供一种基于Transformer网络的文本处理方法及系统,在当前次编码计算后,更新一个数据批内每条输入文本的已编码次数,并分别判断每条输入文本是否可以提前退出,以及,分别判断每条输入文本的已编码次数是否达到预设的最大计算层数,如果存在输入文本可以提前退出或已编码次数达到预设的最大计算层数,则用待处理文本更新对应的输入文本,对数据批内的各输入条文本进行下一次编码计算,其中,每次编码计算均采用相同参数的编码器。基于编码器参数的复用,以及对输入文本的循环填充,使得GPU上模型同时处理的文本数量恒定在数据批大小,有效兼容提前退出机制和数据批大小大于1。

本发明授权基于Transformer网络的文本处理方法及系统在权利要求书中公布了:1.一种基于Transformer网络的文本处理方法,其特征在于,包括: 当前次编码计算后,更新一个数据批内每条输入文本的已编码次数; 分别判断每条输入文本是否提前退出,以及,分别判断每条输入文本的已编码次数是否达到预设的最大计算层数; 如果存在输入文本提前退出或已编码次数达到预设的最大计算层数,则用待处理文本更新对应的输入文本; 对数据批内的各输入条文本进行下一次编码计算,其中,每次编码计算均采用相同参数的编码器; 所述当前次编码计算后,更新一个数据批内每条输入文本的已编码次数之前,还包括: 获取待处理文本集,所述待处理文本集包括多条待处理文本; 初始化输入张量集,输入张量集中张量的位置数量为数据批大小,张量的初始值为空; 初始化编码次数集,编码次数集中元素的数量为数据批大小,元素用于记录对应输入文本的已编码次数; 取出输入张量集中空缺位置数量的待处理文本,得到至少一条输入文本; 将输入文本转化的填充张量加入输入张量集中空缺位置; 对输入张量集中各张量进行编码计算; 所述如果存在输入文本提前退出或已编码次数达到预设的最大计算层数,则用待处理文本更新对应的输入文本,包括: 如果存在输入文本提前退出或已编码次数达到预设的最大计算层数,则将输入张量集中对应的张量置空,以及,将编码次数集中对应的元素置空; 重复所述取出输入张量集中空缺位置数量的待处理文本和所述将输入文本转化的填充张量加入输入张量集中空缺位置。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京大学,其通讯地址为:210023 江苏省南京市栖霞区仙林大道163号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。