自然语言处理(NLP)-BERT实战-简单情感分析

本篇文章我们将基于BERT对文本数据进行情感分析,使用深度学习框架为PyTorch。

本篇文章我们使用预训练模型BERT-base-chinese,对文本进行情感分析。

什么是BERT-base-chinese?

BERT-base-chinese 是 Google 于 2019 年发布的中文预训练语言模型,基于 Transformer 架构,使用了大规模中文语料库进行训练。它具有以下特点:

大规模语料库: BERT-base-chinese 使用了约 500GB 的中文语料库进行训练,包括新闻、小说、百科全书等各种类型的文本。

多层结构: BERT-base-chinese 采用多层双向 Transformer 结构,能够捕捉到文本中的长期依赖关系。

掩码语言模型: BERT-base-chinese 使用掩码语言模型进行训练,能够预测被遮蔽的单词,从而学习到单词之间的语义关系。

下一句预测: BERT-base-chinese 还使用了下一句预测任务进行训练,能够预测两个句子之间的逻辑关系。

BERT-base-chinese 在中文自然语言处理任务上取得了 state-of-the-art 的效果,被广泛用于文本分类、情感分析、问答系统等任务。

BERT-base-chinese 应用举例:

文本分类: BERT-base-chinese 可以用于对文本进行分类,例如判断一篇新闻是正面还是负面,或者判断一条微博是积极还是消极。

情感分析: BERT-base-chinese 可以用于对文本的情感进行分析,例如判断一条评论是正面还是负面,或者判断一个人的情绪是高兴还是悲伤。

问答系统: BERT-base-chinese 可以用于构建问答系统,回答用户提出的问题。

机器翻译: BERT-base-chinese 可以用于构建机器翻译系统,将一种语言翻译成另一种语言。

通过使用bert-base-chinese模型,我们可以进行各种中文自然语言处理任务,如文本分类、情感分析、命名实体识别等。在进行这些任务时,我们可以直接使用预训练的模型进行特征提取,或者在我们的任务上微调模型以获得更好的性能。

下面我们使用最简单的代码对预训练模型BERT-base-chinese进行演示操作:

我们使用预定的LABEL_0表示负面信息,LABEL_1表示正面信息。

1. 加载需要的库

import torch
from transformers import BertTokenizer, BertForSequenceClassification

2. 下载及加载模型

model = BertForSequenceClassification.from_pretrained('bert-base-chinese')
tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')
# 输出
/usr/local/lib/python3.10/dist-packages/huggingface_hub/utils/_token.py:88: UserWarning: 
The secret `HF_TOKEN` does not exist in your Colab secrets.
To authenticate with the Hugging Face Hub, create a token in your settings tab (https://huggingface.co/settings/tokens), set it as secret in your Google Colab and restart your session.
You will be able to reuse this secret in all of your notebooks.
Please note that authentication is recommended but still optional to access public models or datasets.  
  warnings.warn(
config.json: 100%
   624/624 [00:00<00:00, 16.4kB/s]
model.safetensors: 100%
 412M/412M [00:04<00:00, 85.1MB/s]
Some weights of BertForSequenceClassification were not initialized from the model checkpoint at bert-base-chinese and are newly initialized: ['classifier.bias', 'classifier.weight']
You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference.
tokenizer_config.json: 100%
 49.0/49.0 [00:00<00:00, 843B/s]
vocab.txt: 100%
 110k/110k [00:00<00:00, 1.55MB/s]
tokenizer.json: 100%
 269k/269k [00:00<00:00, 4.28MB/s]

3. 定义待推理数据
在这里插入图片描述

4. 进行情感推理

在这里插入图片描述

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

  • 14
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值