Task6 基于深度学习的文本分类3-BERT

BERT

微调将最后一层的第一个token即[CLS]的隐藏向量作为句子的表示,然后输入到softmax层进行分类。
预训练BERT以及相关代码下载地址:链接: https://pan.baidu.com/s/1zd6wN7elGgp1NyuzYKpvGQ 提取码: tmp5

import logging
import random

import numpy as np
import torch

logging.basicConfig(level=logging.INFO, format='%(asctime)-15s %(levelname)s: %(message)s')

# set seed
seed = 666
random.seed(seed)
np.random.seed(seed)
torch.cuda.manual_seed(seed)
torch.manual_seed(seed)

# set cuda
gpu = 0
use_cuda = gpu >= 0 and torch.cuda.is_available()
if use_cuda:
    torch.cuda.set_device(gpu)
    device = torch.device("cuda", gpu)
else:
    device = torch.device("cpu")
logging.info("Use cuda: %s, gpu id: %d.", use_cuda, gpu)
逻辑回归和BERT分类模型是两种常用的文本分类方法。 逻辑回归是一种传统的机器学习算法,常用于二分类问题。它通过将特征与相应的权重进行线性组合,并将结果传入一个非线性函数(称为逻辑函数)来进行分类。逻辑回归的输入是特征向量,输出是一个概率值,表示样本属于某个类别的概率。逻辑回归在文本分类中可以用于短文本的分类任务。 BERT(Bidirectional Encoder Representations from Transformers)是一种基于深度学习自然语言处理模型。它使用了自回归语言模型进行预训练,在生成每个词语时,模型利用前面已生成的词语来预测下一个词语,从而生成连贯的文本。BERT模型具有极大的数据量、训练强度和模型容量,以及利用无监督学习的训练方式。它在文本分类自然语言处理任务中取得了很好的效果,并已超过人类在某些领域的表现。 综上所述,逻辑回归是一种传统的机器学习算法,适用于二分类问题,而BERT是一种基于深度学习自然语言处理模型,适用于文本分类等任务。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [基于传统机器学习(朴素贝叶斯 逻辑斯蒂回归 lightGBM)实现中文文本分类python源码+文本数据集+项目说明.zip](https://download.csdn.net/download/DeepLearning_/87786183)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [自学大语言模型之Bert和GPT的区别](https://blog.csdn.net/qq_38915354/article/details/131054219)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [BERT模型为什么这么强?](https://blog.csdn.net/broadview2006/article/details/119562193)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值