- 博客(2)
- 收藏
- 关注
原创 Datawhale AI夏令营3(NLP)实践:基于论文摘要的文本分类 - 深度学习Topline方案
记录在Datawhale AI夏令营NLP方向的新的体会。BERT,是一个经典的深度学习、预训练模型。2018年,由 Google 团队发布的论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》提出了预训练模型 BERT(Bidirectional Encoder Representations from Transformers),在自然语言处理领域掀起了巨大浪潮。
2023-08-21 17:59:44 141
原创 Datawhale AI夏令营 - NLP实践 - baseline
4. 选择机器学习模型:根据实际情况选择适合的机器学习模型,如朴素贝叶斯、支持向量机(SVM)、随机森林等。这些模型在文本分类任务中表现良好。针对文本分类任务,可以提供两种实践思路,一种是使用传统的特征提取方法(如TF-IDF/BOW)结合机器学习模型,另一种是使用预训练的BERT模型进行建模。5. 模型训练和评估:使用训练集对选定的机器学习模型进行训练,然后使用测试集进行评估。6. 调参优化:如果模型效果不理想,可以尝试调整特征提取的参数(如词频阈值、词袋大小等)或机器学习模型的参数,以获得更好的性能。
2023-08-17 17:44:08 29
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人