NLP(17): 交叉验证,MAP vs MLE

本文介绍了NLP在Affective Computing中的应用,并深入讲解情绪识别实战,包括数据预处理、逻辑回归模型训练及超参数调优。重点讨论了交叉验证在选择模型超参数中的作用,解释了L2正则化的λ影响,以及如何通过k-folds交叉验证确定最佳的超参数。此外,对比了MLE和MAP的区别,强调了在贝叶斯框架下,先验概率如何影响模型的后验概率估计。
摘要由CSDN通过智能技术生成

1、NLP应用场景

Affective computing

  • 图像
  • 文本
  • 语音

2、情绪识别实战

  • 1、读取csv文件
  • 2、划分标签和特征
  • 3、训练数据和测试数据分割
  • 4、对x_train, y_train做tf-idf
  • 5、使用逻辑回归和网格搜索,超参数调参——使用GridSearchCV
  • 6、混淆矩阵——confusion_matrix

3、Cross validation

在训练集上,再划分验证集,使用验证集去对模型中的超参数进行调参,对于使用L2正则的logistics 回归, λ \lambda λ为超参数。在训练集和验证集上进行k-folds 交叉验证,找到最好的超参数c。然后再对测试集进行测试。

  • lambda 越大时,正则起到的作用越大,它的参数
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值