Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京蓝海达信科技有限公司唐熠渲获国家专利权

北京蓝海达信科技有限公司唐熠渲获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京蓝海达信科技有限公司申请的专利一种基于大数据的线上培训教育信息化教学方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120218508B

龙图腾网通过国家知识产权局官网在2025-09-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510286610.0,技术领域涉及:G06Q10/0631;该发明授权一种基于大数据的线上培训教育信息化教学方法是由唐熠渲;唐昌平设计研发完成,并于2025-03-12向国家知识产权局提交的专利申请。

一种基于大数据的线上培训教育信息化教学方法在说明书摘要公布了:本发明涉及线上教育技术领域,公开一种基于大数据的线上培训教育信息化教学方法,包括如下步骤:步骤S1:采集在线教学平台、实时测评系统、情绪监测设备和用户交互日志数据,对数据执行清洗、标准化、噪声过滤和特征提取;步骤S2:依据步骤S1数据构造学生状态向量,以实施降维处理;步骤S3:建立状态动作模型。采用基于大数据的个性化教学推荐系统,通过实时采集学生学习数据,且利用大数据技术分析和优化学习路径,达到精准匹配学生需求的技术效果,相较于传统教育平台中无法及时响应学生状态的技术方案,本发明能实时调整推荐内容,解决个性化教学资源配置不精准的问题。

本发明授权一种基于大数据的线上培训教育信息化教学方法在权利要求书中公布了:1.一种基于大数据的线上培训教育信息化教学方法,特征在于,包括如下步骤: 步骤S1:采集在线教学平台、实时测评系统、情绪监测设备和用户交互日志数据,对数据执行清洗、标准化、噪声过滤和特征提取; 步骤S2:依据步骤S1数据构造学生状态向量,以实施降维处理; 步骤S3:建立状态动作模型,定义推荐动作对应视频资源、题目资源和讨论模块,设计奖励函数计算奖励分值; 所述步骤S3进一步包括: 步骤3.1,建立状态动作模型,根据步骤S2中构造的学生状态向量,定义状态向量来描述学生的学习进度、测评分数、情绪状态和交互行为;定义推荐动作集合U,该集合包含多种推荐动作; 步骤3.2,设计奖励函数,该函数包括学习进度奖励、知识掌握奖励和情绪激励奖励,具体计算公式为: rpξq,vq=fpξq,vq, rkξq,vq=fkξq,vq, reξq,vq=feξq,vq, 其中,rpξq,vq是学习进度奖励,rkξq,vq是知识掌握奖励,reξq,vq是情绪激励奖励,ξq是学生的状态向量,vq是推荐的动作,fp、fk和fe为计算各项奖励的函数; 步骤3.3,计算累计奖励,为评价推荐动作的长期效果,采用折扣因子δ对即时奖励进行递减累加,得到总体奖励,总体奖励函数为: 其中,ωp是学习进度奖励,ωk是知识掌握奖励,ωe是情绪激励奖励的权重系数,δ是折扣因子,T是时间步数,Jπ是总体奖励; 步骤3.4,系统根据累计奖励Jπ确定最优推荐动作vq来最大化奖励值; 步骤S4:将教学推荐问题抽象为马尔可夫决策过程,构成状态集合、动作集合、状态转移概率函数和即时奖励函数,且采用贝尔曼最优性原理求解最优状态价值函数; 所述步骤S4进一步包括: 步骤4.1,将教学推荐问题建模为马尔可夫决策过程,定义状态集合S,动作集合A,状态转移概率函数P,以及即时奖励函数R; 状态集合S表示学生的所有状态; 动作集合A包含系统为学生推荐的所有动作; 状态转移概率函数Ps′|s,a表示在状态s下采取动作a后转移到状态s′的概率; 即时奖励函数Rs,a表示在状态s下采取动作a后获得的即时奖励; 步骤S5:利用深度Q网络对步骤S4中的马尔可夫决策过程实施强化学习训练,以迭代更新状态动作价值函数获得最优推荐策略; 所述步骤S5进一步包括: 步骤5.1,利用深度Q网络对步骤S4中的马尔可夫决策过程实施强化学习训练,以迭代更新状态动作价值函数获得最优推荐策略,定义Q网络为神经网络,其输入为状态向量sq,输出为各动作aq对应的Q值Qsq,aq; Q值表示在给定状态sq下,执行动作aq后的预期累计奖励; 步骤5.2,在训练过程中,通过与环境交互,基于当前的Q网络更新Q值函数,各次更新时,通过计算实际获得的奖励和下一状态的Q值来更新当前的Q值,使用贝尔曼方程来更新Q值,公式为: 其中,Qsq,aq是当前状态sq下执行动作aq的Q值, α是学习率,rq是当前状态sq下执行动作aq后获得的即时奖励, γ是折扣因子,是下一状态sq+1下的最大Q值; 步骤S6:构建动态博弈模型描述系统与学生间互动,系统奖励和学生奖励采用累积折扣奖励方式表达且满足纳什均衡条件; 步骤S7:集成步骤S1至步骤S6组成闭环反馈系统,实时采集反馈数据调整各参数,以验证系统性能。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京蓝海达信科技有限公司,其通讯地址为:100085 北京市海淀区上地三街9号D座7层D806-1;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。