Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 大连理工大学马瑞新获国家专利权

大连理工大学马瑞新获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉大连理工大学申请的专利一种基于知识图谱推荐的个性化知识追踪方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115827968B

龙图腾网通过国家知识产权局官网在2025-06-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211462249.5,技术领域涉及:G06F16/9535;该发明授权一种基于知识图谱推荐的个性化知识追踪方法是由马瑞新;张红燕;马云龙;梅骠;吕光越设计研发完成,并于2022-11-22向国家知识产权局提交的专利申请。

一种基于知识图谱推荐的个性化知识追踪方法在说明书摘要公布了:一种基于知识图谱推荐的个性化知识追踪方法,步骤如下:获取学习者的答题记录的可公开数据,筛选出其中的重要数据构建用户‑习题交互矩阵和习题知识图谱,即为输入数据。使用预训练语言模型BERT嵌入和词嵌入模型自由文本嵌入获得数据的密集特征向量。在题目知识图谱上使用知识图谱推荐原理计算用户和关系+属性实体得分并聚合,获得知识图谱中每个实体的高阶结构和领域信息并捕获用户的个性化偏好和兴趣。输入到改进的知识追踪模型中对学习者的知识状态进行建模并预测其未来表现。本发明在保证高预测精度的同时提高了知识追踪模型的可解释性、缓解了数据稀疏问题,使具有非拓扑结构的知识追踪模型实现个性化建模功能,并改进了知识状态更新机制。

本发明授权一种基于知识图谱推荐的个性化知识追踪方法在权利要求书中公布了:1.一种基于知识图谱推荐的个性化知识追踪方法,其特征在于,步骤如下: 第一步,获取可公开的练习数据; 第二步:构建用户-题目交互矩阵和题目知识图谱,即模型所需的数据集; 从获得的公开的练习数据中构建学习者-题目交互矩阵和题目知识图谱,即为实验数据集,具体操作如下: 在学习者-题目交互矩阵中,对于每一个学习者,如果在某个题目上有积极表现即回答正确则为1,否则为0;题目知识图谱中由许多个三元组头实体,关系,尾实体构成,头实体是题目,头实体+关系定位到尾实体,尾实体是全体属性实体,下文中的属性实体即为尾实体; 第三步:对题目知识图谱中的文本表示使用BERT嵌入和自由文本嵌入获得其密集特征向量; 对题目知识图谱中的文本表示使用BERT嵌入,BERT嵌入作为特征提取器来调整实体的文本属性;自由文本嵌入对单个词的文本直接嵌入,对多个词的文本使用均值池;最后将两个嵌入表示连接到一起作为最终的特征表示,即为在第四步中进行输入的密集特征向量; 第四步:对第三步获取的密集特征向量使用知识图谱推荐方法,获得每个实体的高阶结构和邻域信息,并区分每个关系和属性对用户的重要程度; 使用知识图谱推荐是在自动捕获知识图谱中节点的高阶结构和邻域信息时也能捕捉到学习者的个性化偏好; 考虑用户u和题目实体q的候选对,用Nq表示和题目实体q直接相连的实体集,即题目的属性实体集;rq,e表示题目实体q和属性实体e间的关系,使用内积函数g:来计算用户和关系+属性实体之间的得分,以获得每个属性实体以及每种关系对每个用户的不同程度的影响;计算方式如下: 其中,u∈Rd,e∈Rd和r∈Rd分别是用户u、属性实体e和关系r的特征表示,d表示维度;表征了关系r+属性实体e对用户u的重要性; 为了表征题目实体q的拓扑邻近结构,计算题目实体q邻域的线性组合 是归一化的用户和关系+属性实体分数,即归一化的计算方式如下: 其中,e表示属性实体,exp·表示以自然常数为底的指数函数;在计算属性实体的邻域表示时,用户和关系+属性实体分数充当个性化过滤器,因为聚合了对这些用户特定分数有偏差的邻域; 为了保证每个批次的计算稳定且有效,需对每个题目采用固定数量的邻居;将题目实体q的领域表示计算为其中Sq定义如下: Nq是直接和实体q相连的实体集,K是可配置常数,会在后续实验中寻找K的最优值,是融合了K个邻居后的次实体集;Sq是题目实体q的单层感受野,q的最终表示由其h层感受野决定; 通过邻域聚合操作,成功捕获局部邻近结构并存储在每个实体中,邻居通过依赖于连接关系和特定用户的得分来加权,既表征了知识图谱的语义信息,也表征了用户对关系的个性化兴趣;给定实体的邻域定义也可分层扩展到多跳,以模拟高阶实体依赖关系并捕获用户潜在的远程兴趣; 知识图谱推荐的最后一步是将题目实体表示q及其邻域表示聚合为密集向量; 第五步:将第四步获得的信息联合学习者在对应题目上的表现输入到具有层级结构的长短期记忆网络即有序神经元长短期记忆网络中,对学习者知识状态进行建模和更新; 对于每一个题目,其对应于特定的时间点t,串联第四步处理后的题目表示和其对应的对错at,并处以非线性变换,获得当前时间点t的学习活动表示: 其中,RELU表示非线性变换,W和b分别表示权重矩阵和偏差,concat·表示连接; 为捕获整个历史活动的长期依赖并对学习者学习过程中不同知识状态的形成进行模拟,使用改进的LSTM即ON-LSTM,对输入的学习活动表示进行联合建模;ON-LSTM将树的层级结构整合到LSTM中,使得改进后的网络能够无监督学习到层级结构信息,定义如下: 首先是标准的输入门it,输出门ot和遗忘门ft: it=σWiXt+Uiht-1+bi ot=σWoXt+Uoht-1+bo ft=σWfXt+Ufht-1+bf 计算历史知识状态ht-1的层级: 计算当前输入xt的层级: 计算知识状态ht-1的层级lhis和当前输入xt的层级lnow的交集ωt: 进行状态更新时:二者相交的部分使用LSTM进行更新,高于maxlnow,lhi的部分进行保留,低于minlnow,lhis的部分直接使用当前输入进行替换,即 最后更新知识状态得到最新知识状态ht: 其中,W代表当前输入Xt的权重矩阵,U代表当前知识状态ht-1的权重矩阵,b代表偏差,σ·指sigmoid函数,使用双曲正切函数tanh·来计算候选值以供后续决定遗忘内容,表示交集操作; 第六步:选择合适的信息与当前输入和知识状态进行交互获得预测结果; 对于当前输入和当前的知识状态ht-1,选取和具有相同知识点的两个题目实体q1,q2以及得分最高的两个属性实体e1,e2进行交互; π是二者的得分,R是得分的排序,k则指明选取前k个; 和则模拟了学习者在时间点t练习题目使用以下方法获得预测结果pt: αi,j=SoftmaxWTconcatfi,fj+b 其中,f=·表征交互,W和b分别表示权重和偏差,表示聚合邻域属性ej嵌入,g表示内积函数; 训练过程中使用梯度下降最小化预测值pt和真实值at之间的交叉熵损失:

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人大连理工大学,其通讯地址为:116024 辽宁省大连市甘井子区凌工路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。