2022知识追踪最新综述——A survey on DLKT

A survey on deep learning based knowledge tracing

论文在2022年10月收录于Knowledge-Based Systems期刊中 ——原文链接
后文里,我用DLKT来代替deep learning based knowledge tracing

摘要

这是综述性文章,评估了过往DLKT的各类模型。

  1. 主流DLKT模型提出的技术方法的细粒度分类
  2. KT技术的细节分析
  3. 技术解决方案的分析和DLKT各模型的主要改进
  4. 未来DLKT可能的研究领域

1. 引言

从在线学习→智能导学系统→KT。KT不仅让学习者更好的理解他们的学习,也让平台和教师可以更了解甚至干预。然后介绍了主流的KT ,从BKT开始(介绍了它的概念变体和优缺点),再到DKT的优点,但由于其可解释性差、长期依赖、学习特征少,不断有变体和更新。以前的综述没有深入研究分析各个DLKT模型的独特贡献和改进方向。贡献如下

  1. 提出一个明确的分类方式并比较了各个模型的架构、设计、知识表示
  2. 用四个数据集深入研究和总结,比较DLKTs性能
  3. 提供了见解并讨论重要问题与局限,利于未来的研究

2. KT的回顾

问题定义

智能教育系统主要有三个部分:学生、练习(题目)、知识概念(技能)。

知识追踪(KT)定义:给定学生历史序列 s = { X 0 , . . . , X t } = { ( e 0 , a 0 ) , . . . , ( e t , a t ) } s=\{X_0,...,X_t\}=\{(e_0,a_0),...,(e_t,a_t)\} s={X0,...,Xt}={(e0,a0),...,(et,at)},预测下一组交互 X t + 1 X_{t+1} Xt+1(准确来说是预测 a t + 1 a_{t+1} at+1

公共范式

不同的模型和方法几乎采用相同的设计:负对数似然,因此KT的目标是 通过历史序列 学习给定的时间1-t学生练习过程的负对数似然性

在这里插入图片描述

其中, a t 和 a ^ t a_t和\hat a_t ata^t分别表示真实值和预测值。

3. DLKT模型的分类

表1 中总结了这些DLKT模型,具体技术分为DKT及其变体、基于记忆网络的、基于注意力机制的、基于图结构的

在这里插入图片描述

DKT及其变体

2015年的DKT,使用序列模型(RNN、LSTM、GRU)作为基模型,通过one-hot编码将 X t X_t Xt转化为输入向量
在这里插入图片描述
在这里插入图片描述
DKT的问题在于,1. h t h_t ht代表了整体状态 2. 无法模拟概念间连接 3. 所有练习重要性一致 。DKT的各类扩展如表中所示,就不具体描述了

基于记忆网络的KT

扩充外部记忆结构来跟踪复杂概念,最经典的是17年的DKVMN,重点在于key矩阵存储技能表示,value矩阵存储学生对每个技能的情况。具体而言,计算题目和技能的注意力权重→计算学生对题目的掌握程度→合并题目难度和学生掌握信息→预测。

SKVMN用修改后的LSTM(Hop-LSTM)进行顺序建模,具体见这两篇论文。

基于注意力机制的KT

由于DKT缺乏可解释性,直接将可解释性纳入特定的模型结构中实现。共同点为:通过注意力机制学习交互中题目的权重,以表示预测时的该题的重要性。

最经典的是SAKT,将transformer模型首次应用于KT中,其他变体如表所示,具体细节见各自的论文。

基于图结构的KT

由于KT中存在各种关系模式,部分研究使用图表示学习的方法捕获这类能力。

最经典的是GKT模型,其他变体也如表所示,具体细节见各自的论文

4. DLKT模型的比较和分析

数据集

KT中有6种常用的数据集,A09、A12、A15、ASSISTChall、Statics2011、Simulated-5模拟数据集,具体区别如表2
在这里插入图片描述

评估指标

AUC,值越大,预测能力越好

实验结果和讨论

在这里插入图片描述

各个模型在主流数据集上存在差异,许多新结构发挥了积极的作用(Bi-CLKT),也改善了已有模型的局限和问题。

5. 结论和未来展望

当前大数据的环境和教育问题里因材施教的需求以及深度学习的强大,使得KT逐渐成为一个重要的技术。本文回顾了以往的模型,并将DLKT模型分为四个大类,详细介绍了每类模型的优缺点以及针对最初3个问题的对应改进。其中,依赖性问题被自注意力机制解决,可解释性问题在深度学习中仍是挑战,缺乏特征问题的三大方法(嵌入、约束损失函数、新结构)各有优缺点。

此外仍有几点挑战:

  • 二进制问题的局限性,无法解决主观题
  • 难以引入新的学习特征,需要用户提取建模并提供数据
  • 提高模型识别知识结构的能力,将知识点连接图扩展为知识图谱

文章的内容到这里就结束了,我个人感觉这篇文章并没有太多的创新点(针对1区期刊而言,似乎有点水分了),这里将DLKT分为4类,相信大部分研究者早已心照不宣地进行。另外这篇文章和之前那篇中文综述相比,将各类模型介绍的更加完整且详细,但也因此引申不多,只举了最经典的几个案例,优势是可以让初学者更快的了解与入门了。另外对于各类模型的比较和分析,也并没有得到确切的定量or定性结论,也没有一个权威的框架进行对比,内容较为发散,当然见解因人而异。
文章的最后也提出了知识追踪作为智能导学系统中的关键技术,在当前教育大数据环境下,依然还有很多值得研究的问题(提高预测性能、更具有可解释、落地实际问题)

  • 18
    点赞
  • 48
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
视觉Transformer综述是一篇关于视觉Transformer模型的综合研究文章。它提出了一种新的视觉处理方法,使用Transformer架构来处理图像任务。该论文探讨了不同的变体和改进的视觉Transformer模型,并对其性能进行了评估和比较。 在这篇综述中,还引用了其他研究的工作。其中一篇是CvT(Introducing convolutions to vision transformers),这篇论文介绍了将卷积操作引入视觉Transformer模型的方法,以融合Transformer和传统的卷积神经网络的优势。 此外,综述中还提到了Normalization策略(Normalization strategies),该策略旨在提高视觉Transformer模型的性能,使其在处理图像任务时更加稳定和可靠。 综合来看,A Survey on Vision Transformer提供了对视觉Transformer模型的全面概述,并介绍了相关的改进方法和策略,为进一步研究和应用这一领域提供了重要的参考。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [[Transformer]A Survey on Vision Transformer](https://blog.csdn.net/qq_37151108/article/details/120790854)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [A Survey on Vision Transformer](https://blog.csdn.net/woshilaixiazaidemiao/article/details/124778767)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值