【使用 BERT 的问答系统】第 6 章 :BERT 模型应用:其他任务

     🔎大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流🔎

📝个人主页-Sonhhxg_柒的博客_CSDN博客 📃

🎁欢迎各位→点赞👍 + 收藏⭐️ + 留言📝​

📣系列专栏 - 机器学习【ML】 自然语言处理【NLP】  深度学习【DL】

 🖍foreword

✔说明⇢本人讲解主要包括Python、机器学习(ML)、深度学习(DL)、自然语言处理(NLP)等内容。

如果你对这个系列感兴趣的话,可以关注订阅哟👋

文章目录

情绪分析

命名实体识别

文本分类

文本摘要

结论


在上一章中,我们了解了 BERT 及其在问答系统设计中的应用。本章讨论如何使用 BERT 实现其他 NLP 任务,例如文本分类、命名实体识别、语言翻译等。

 BERT 在各种 NLP 任务的许多基准数据集中表现良好,例如 SQuAD(问答数据集)、Natural Questions(事实和非事实问题的问答数据集)、IMDB 电影评论数据集(分类数据)等。现在,我们将看到如何将在这些基准数据集上训练的基于 BERT 的模型用作以下 NLP 任务的预训练模型。

  • 情绪分析

  • 命名实体识别

  • 文本分类

  • 文本摘要

我们介绍这些主题,然后看看它们的实现。

情绪分析

情感分析是 NLP 的一个子领域,它识别博客、评论、新闻等给定文本的观点或情感。它可以告知企业对其产品的接受程度和消费者对其的看法。识别社交媒体上的仇恨言论和其他问题也很有用,可以识别人们对特定讨论主题的情绪。情绪分析甚至可以帮助公司根据消费者对特定人口区域特定主题的意见来规划产品发布。

对于本书,我们使用了一个使用 BERT 训练的情感分析模型,它使用.csv格式的数据集,其中每个数据点是一对句子及其观点(即,不是侮辱,侮辱)。对于推理,系统处理用户的查询并提供相同的情绪。

请按照以下步骤实施情绪分析系统。
1. 如前所述创建一个新的 Jupyter notebook 并运行以下命令来安装 deeppavlov 库(如果您在第5章中没有这样做)。
 
! pip install deeppavlov
安装后,您将看到如图6-1所示的输出。

                                                 图 6-1 deeppavlov的安装

2. 因为我们要使用情绪分析,所以我们将使用一个经过情绪数据训练的模型。运行以下命令以下载经过训练的模型insults_kaggle_bert。
 
! python -m deeppavlov install insults_kaggle_bert
笔记

请使用 '!' 如果您使用的是 Colab Notebook,请在安装命令前添加符号,如刚才所示。

安装后,您将看到如图6-2所示的输出。

                                                                图 6-2 安装包

3. 使用此命令执行此实现所需的必要导入。
 
from deeppavlov import build_model, configs

4.然后我们将使用 deeppavlov 库的build_model类得到一个情感分析模型。它需要两个参数:

  • 配置 文件路径:定义配置文件的名称,其中包含要使用的相关 NLP 模型的详细信息。对于这种情况,我们将使用insults_kaggle_bert。这包含使用情感模型所需的配置。

  • download 如果需要下载模型,则为True ,否则为False。因为我们是第一次这样做,所以这个参数的值将为True。
    sentiment_model = build_model(configs.classifiers.insults_kaggle_bert,下载=真)
 
5. 加载情绪模型后,您可以通过提出诸如“你真笨!”、“这部电影很好”等问题并将这些问题作为参数传递给此处所示的sentiment_model函数来测试该模型.
 
test_input = ['This movie is good', 'You are so dumb!']
results = sentiment_model(test_ input)
根据提出的问题,此代码段的输出将是Not Insult或Insult。这是使用情感分析的完整端到端代码库。
from deeppavlov import build_model, configs
def build_sentiment_model ():
    model = build_model(configs.classifiers.insults_kaggle_bert, download=True)
    return model
test_input = ['This movie is good', 'You are so dumb!']
if __name__ == "__main__" :
        sentiment_model = build_sentiment_model()
        results = sentiment_model(test_ input)
        print(results)
这是输出:
['Not Insult', 'Insult']

现在我们已经了解了如何将基于 BERT 的情绪分析系统用于研究目的,让我们考虑一个场景,您需要在对话系统中启用情绪分析,以便它可以根据查询或请求识别用户的情绪。用户给出的响应。这将有助于对话系统根据用户的情绪做出响应。按照此处给出的步骤将情绪分析系统的功能作为 REST API 发布。

1. 创建一个名为SentimentAnalysisAPI.py的文件。
 
2. 复制此处显示的代码并将其粘贴到此文件中,然后保存。
 
from flask import Flask, request
import json
from SentimentAnalysis.SentimentAnalysis import build_sentiment_model
app=Flask(__name__)
@app.route ("/sentimentAnalysis", methods=['POST'])
def sentimentAnalysis():
    try:
        json_data = request.get_json(force=True)
        questions = json_data['questions']
        sentiment_model = build_sentiment_model()
        questions_list =[]
        for ques in questions:
            questions_list.append(ques)
        model_output = sentiment_model(questions_list)
        index = 0
        result = []
        for ans in model_output:
            sentiment_qa =dict()
            sentiment_qa['qustion'] = questions_list[index]
            sentiment_qa['answer'] = ans
            result.append(sentiment_qa)
        result={'results':result}
        result = json.dumps(result)
        return result
except Exception as e:
        return {"Error": str(e)}
if __name__ == "__main__" :
    app.run(port="5000")
3. 此代码处理传递给 API 的输入,调用build_sentiment_model函数,并将此函数的响应作为 API 响应发送。
 
4. 打开命令提示符并运行以下命令。
 
Python SentimentAnalysisAPI.py

                                                                 图 6-3  服务部署
5. 现在,要测试 Rest API,可以使用 Postman。请参考提供给情绪分析 API 的 URL 和示例请求 JSON 以及将作为来自 API 的响应接收的响应 JSON,如图6-4所示。
 

网址: http: //127.0.0.1 :5000/sentimentAnalysis

情感分析系统样本输入请求JSON:

{

    "questions": [

        {

            "question": "This movie is good."

        },

       {

             "question": "You are so dumb!"

        }

    ]

}

情感分析系统 样本输出响应JSON 

{

    "results": [

        {

            " question": "This movie is good.",

            "answer": "Not Insult"

        },

        {

            " question": "You are so dumb!",

            "answer": "Insult"

        }

    ]

}

                                                 图 6-4  调用情绪分析系统API

可以从 GitHub 下载本练习的代码库,网址为Python_code/Chapter6/SentimentAnalysis at master · bertbook/Python_code · GitHub

命名实体识别

命名实体识别是信息抽取的一个子领域,其目的是从文本数据中抽取名词或名词短语,并将其分类为人物、地点、时间、组织等类别。这主要用于将非结构化文本转换为结构化文本。实体识别在以下系统中起着重要作用。
  • 搜索引擎 :这用于为用户提出的查询识别相关文档。例如,让我们使用“什么是 Microsoft Outlook?” 在此查询中,“Microsoft Outlook”是应用程序类型的实体。因此,搜索引擎将更加重视将 Microsoft Outlook 识别为实体的文档。

  • 对话系统 :实体在对话系统的设计中起着重要作用。实体被用在对话系统中,以消除用户提出的问题的歧义,如果它与常见问题有关但针对不同的实体。例如,用户输入了查询“我在 Outlook 中遇到问题”。对话系统有两种解决方案:一种用于 Outlook,另一种用于 Gmail。因为 Outlook 和 Gmail 都是不同的实体,所以解决方案也是如此。因此,识别完意图(即Issue)后,接下来识别的就是实体(即Outlook),会话系统据此给出解决方案。

存在许多用于实体识别的注释数据集。不过,对于本书,我们将演示一个实体模型,该模型已经使用 BERT 作为基线在 OntoNotes 数据集上进行了训练。该数据集收集了 1,745,000 条英语、900,000 条中文和 300,000 条阿拉伯文本数据,这些数据来自电话对话、新闻专线、广播新闻、广播对话和博客等各种来源。

在这个数据集中,实体被标注了 18 个类别,例如组织、艺术作品、单词中的数字、数字、数量、人物、位置、地缘政治实体、时间、日期、设施、事件、法律、国籍或宗教或政治团体,语言、货币、百分比和产品等。

在本节中,我们将探讨如何使用使用 BERT 在 OntoNotes 数据集上训练的命名实体识别系统。请按照以下步骤实施命名实体识别系统。
1. 如前所述,创建一个新的 Jupyter notebook,然后运行以下命令来安装 deeppavlov 库。
 
! pip install deeppavlov

安装后,您将看到类似于图6-5的输出。

                                         图 6-5 deeppavlov的安装

2 我们将使用已在 OntoNotes 数据上训练过的实体识别系统,如图6-6所示。因此,运行以下命令下载经过训练的模型ner_ontonotes_bert_mult。
 
! python -m deeppavlov install ner_ontonotes_bert_mult

笔记

请使用 '!' 如果您使用的是 Colab Notebook,请在安装命令前添加符号,如刚才所示。

                                                                图 6-6   安装包
3. 使用此命令执行此实现所需的必要导入。
from deeppavlov import build_model, configs

4.然后我们将使用 deeppavlov 库的build_model类获得一个实体模型。它需要两个参数:

  • 配置 文件路径:定义配置文件的名称,其中包含要使用的相关 NLP 模型的详细信息。对于这种情况,我们将使用ner_ontonotes_bert_mult。该文件包含在 OntoNotes 上训练的实体模型所需的所有配置。

  • 下载:如果需要下载模型,则为True ,否则为False。因为我们是第一次这样做,所以这个参数的值将为True。

ner_model = build_model(configs. ner.ner_ontonotes_bert_mult, download=True)
5. 加载实体识别模型后,您可以通过提供诸如“亚马逊雨林位于南美洲”之类的文本来测试该模型。并将其作为参数传递给名为ner_model的函数,如此处所示。
 
test_input = ["Amazon rainforests are located in South America."]
results = ner_model(test_ input)
这些代码片段的输出包含单词及其标记的实体,如图6-7所示。

                                                         图 6-7 命名实体识别系统结果

这是此实现的完整Python 代码。
from deeppavlov import build_model, configs
import pandas as pd
def build_ner_model ():
    model = build_model(configs. ner.ner_ontonotes_bert_mult, download=True)
    return model
if __name__=="__main__":
  test_input = ["Amazon rainforests are located in South America."]
   ner_model = build_ner_model()
   results = ner_model(test_ input)
   results = pd.DataFrame(zip(results[0][0],results[1][0]), columns=['Word','Entity'])
   print(results)
输出是识别出的实体,如图6-8所示。
                                                图 6-8  命名实体识别系统结果

 现在我们已经了解了如何将基于 BERT 的实体识别系统用于研究目的,接下来我们考虑一个场景,在该场景中我们需要部署此功能以供对话系统使用。对话系统通常使用实体来配置或开发用例。例如,对于用例“面对 Outlook 的问题”,该系统可用于将“Outlook”识别为一个实体。在这种情况下,您需要使用以下步骤将实体识别系统的功能发布或公开为REST API 。

1. 创建一个名为NamedEntityAPI的文件。
 
2. 复制以下代码并粘贴到该文件中,然后保存。
 
from flask import Flask, request
import json
from NamedEntityRecognition.NamedEntityRecognition import build_ner_model
app=Flask(__name__)
@app.route ("/namedEntity", methods=['POST'])
def namedEntity():
    try:
         json_data = request.get_json(force=True)
        query = json_data['query']
        ner_model = build_ner_model()
        model_output = ner_model([query])
        words= model_output[0][0]
        tags = model_output[1][0]
        result_json = dict()
        result_json['query'] = query
        entities = []
        index = 0
        for word in words:
            word_tag_dict=dict()
            word_tag_dict['word'] = word
            word_tag_dict['tag'] = tags[index]
            index = index+1
            entities.append(word_tag_dict)
        result_json['entities'] = entities
        result = json.dumps(result_json)
        return result
except Exception as e:
        return {"Error": str(e)}
if __name__ == "__main__" :
    app.run(port="5000")
3. 此代码处理传递给 API 的输入,调用build_ner_model函数,并将此函数的响应作为 API 响应发送。
 
4. 打开命令提示符并运行以下命令。
 
Python NamedEntiityAPI.py
这将在http://127.0.0.1:5000/上启动一个服务,如图6-9所示。

                                                        图 6-9  服务部署
5. 现在,要测试这个 API,可以按照第5章中的说明使用 Postman 。请参考以下提供给命名实体识别系统 API 的 URL 和示例请求 JSON,以及将作为来自 API 的响应接收的响应 JSON,如图6-10所示。
 

网址: http: //127.0.0.1 :5000/namedEntity

命名实体识别系统样本输入请求JSON:

{

    "query": "Amazon rainforests are located in South America."

}

命名实体识别系统示例输出响应 JSON:

{

     "query": "Amazon rainforests are located in South America.",

    "entities": [

        {

            "word": "Amazon",

            "tag": "B-LOC"

        },

        {

            "word": "South",

            "tag": "B-LOC "

        },

{

            "word": "America",

            "tag": "I-LOC "

        }

    ]

}

                                        图 6-10  调用命名实体识别系统API

可以从 GitHub 下载此练习的代码库,网址为Python_code/Chapter6/NamedEntityRecognition at master · bertbook/Python_code · GitHub

文本分类

文本分类可以定义为将文本分配或分类到特定类别或类中的问题。文档分类或分类、意图分类、垃圾博客检测等都属于文本分类。在这里,文本可以是任何内容,例如句子、文档、博客等。文本分类利用 NLP 方法进行预处理,例如标记化、停用词删除、短语提取、实体提取等。

在推理过程中,文本分类分析文本(文档、博客或句子)并将其分配给预训练类别。例如,如果文档指的是政治,那么这就属于政治范畴。在某些情况下,一个文档可能属于多个类别(称为多标签分类)。例如,如果文档既谈论政治又谈论体育,那么它将被归类到这两个类别中;即政治和体育。

本节介绍如何使用使用 BERT 在新闻组数据集上训练的文本分类系统。在这里,我们将把新闻文章分类到各自的类别中。该数据集有四类新闻文章:
  • alt.atheism

  • soc.religion.christian

  • comp.graphics

  • sci.med

我们将为此实现使用 ktrain 和 tensorflow_gpu。请注意,此实现需要在系统上安装GPU 版本的 TensorFlow 。因此,请确保您拥有支持 GPU 的系统。
1. 如前所述创建一个新的 Jupyter notebook 并运行以下命令来安装 tensorflow_gpu 和 ktrain 库。
! pip3 install -q tensorflow_gpu==2.1.0
! pip3 install -q ktrain
成功安装包后,它会显示如图6-11所示的输出。
                                                图 6-11  安装TensorFlow
 
2. 导入此实现所需的包,例如来自 sklearn 的fetch_20newsgroup数据集和此处所示的 ktrain 库。
from sklearn.datasets import fetch_20newsgroups
import ktrain
  3. 接下来下载并检索仅包含四个类别的fetch_20newsgroup数据集:alt.atheism、soc.religion.christian、comp.graphics 和 sci.med。将它们分成启用混洗的训练和测试集,如此处所示。
classes = ['alt.atheism', 'soc.religion.christian','comp.graphics', 'sci.med']
train_data = fetch_20newsgroups(subset='train', categories=classes, shuffle=True, random_state=42)
test_data = fetch_20newsgroups(subset='test', categories=classes, shuffle=True, random_state=42)
  4.使用ktrain.text 库的Transformer类创建一个转换器模型的实例。它需要一些参数的值来定义,如下所示。
  • Model name:这表示要使用的BERT模型的名称。在这种情况下,我们使用了 distillBERT 而不是 BERT base。

  • Length of article设置文章的最大长度。这里,最大长度只能是512。如果指定任何长度大于512的文章,它会被自动截断。

  • Classes这是需要考虑进行培训的课程列表。

 
5. 下一步是预处理训练和测试数据,以使用 distillBERT 生成文章的嵌入式表示。将这些数据和模型传递给 ktrain 的get_learner函数,以获取具有所有配置参数的分类模型实例,例如batch_size、模型实例、训练数据和测试数据。
MODEL_NAME = 'distilbert-base-uncased'
trans = text.Transformer(MODEL_NAME, maxlen=500, classes=train_classes)
train_preprocess = trans.preprocess_train(train_features, train_labels)
val_preprocess = trans.preprocess_test(test_features, test_labels)
model_data = trans.get_classifier()
classification_model = ktrain.get_learner(model_data, train_data=train_preprocess, val_data=val_preprocess, batch_size=6)
classification_model.fit_onecycle(5e-5, 4)
  6. 一旦分类模型得到训练,就可以在看不见的数据上测试这个模型,如此处所示。
predictor = ktrain.get_predictor(classification_model.model, preproc=trans)
input_text = 'Babies with down syndrome have an extra chromosome.'
results = predictor.predict(input_text)
 这是实现文本分类的完整Python 代码。
from sklearn.datasets import fetch_20newsgroups
import ktrain
from ktrain import text
def preprocess_dataset():
    classes = ['alt.atheism', 'soc.religion.christian','comp.graphics', 'sci.med']
    train_data = fetch_20newsgroups(subset='train', categories=classess, shuffle=True, random_state=42)
    test_data = fetch_20newsgroups(subset='test', categories=classes, shuffle=True, random_state=42)
    return train_data.data,train_data.target, test_data.data,test_data.target,classes
def create_text_classification_model():
    MODEL_NAME = 'distilbert-base-uncased'
    train_features, train_labels, test_features, test_labels, train_classes =preprocess_dataset()
    trans = text.Transformer(MODEL_NAME, maxlen=500, classes=train_classes)
    train_preprocess = trans.preprocess_train(train_features, train_labels)
    val_preprocess = trans.preprocess_test(test_features, test_labels)
    model_data = trans.get_classifier()
    classification_model = ktrain.get_learner(model_data, train_data=train_preprocess, val_data=val_preprocess, batch_size=6)
    classification_model.fit_onecycle(5e-5, 4)
    return classification_model, trans
def predict_category(classification_model, trans, input_text):
    predictor = ktrain.get_predictor(classification_model.model, preproc=trans)
    results = predictor.predict(input_text)
    return results
if __name__ == "__main__" :
        classification_model, trans = create_text_classification_model()
        input_text = 'Babies with down syndrome have an extra chromosome.'
        print(predict_category(classification_model, trans, input_text))
从以下输出中可以看出,对于文本“患有唐氏综合症的婴儿有一条额外的染色体”。类别是 sci.med。
sci.med

现在,我们已经了解了如何将基于 BERT 的文本分类系统用于研究目的。接下来,考虑您需要部署此功能以供对话系统使用的场景。对话系统可以利用它作为意图分类或识别系统来配置或开发用例。例如,对于“面临 Outlook 问题”的用例,该系统可用于将意图识别为“问题”。在这种情况下,您需要按照以下步骤将意图分类系统的功能发布或公开为REST API 。

1. 创建一个名为TextClassificationAPI的文件。
 
2. 复制以下代码并将其粘贴到该文件中,然后保存。
从烧瓶导入烧瓶,请求
from flask import Flask, request
import json
from TextClassification.TextClassification import create_text_classification_model, predict_category
from TextClassification import create_text_classification_model
app=Flask(__name__)
result={}
@app.route ("/textClassification", methods=['POST'])
def textClassification ():
    try:
        json_data = request.get_json(force=True)
        input_text = json_data['query']
        classification_model, trans = create_text_classification_model()
        category = predict_category(classification_model, trans, input_text)
        result = {}
        result['query'] = input_text
        result['category'] = category
        result = json.dumps(result)
        return result
    except Exception as e:
        error = {"Error": str(e)}
        error = json.dumps(error)
        return error
if __name__ == "__main__" :
    app.run(port="5000")
 
3. 此代码处理传递给 API 的输入,调用create_text_classification_model函数,并将此函数的响应作为 API响应发送。
 
4. 打开命令提示符并运行以下命令。
Python 文本分类API.py
这将在http://127.0.0.1:5000/上启动一个服务,如图6-12所示。
                                                        图 6-12  服务部署

 5.现在,要测试 Rest API,可以使用 Postman,如第5章所述。请参考以下提供给文本分类 API 的 URL 和示例请求 JSON,以及将作为来自 API 的响应接收的响应 JSON,如图6-13所示。

 

网址: http: //127.0.0.1 :5000/textClassification

文本分类系统样本输入请求JSON:

{

            "query": "Babies with down syndrome have an extra chromosome."

}

文本分类系统样本输出响应JSON:

{

     "query": "Babies with down syndrome have an extra chromosome.",

     "category": "sci.med"

}

                                                图 6-13  调用文本分类系统API

可以从 GitHub 下载此练习的代码库,网址为Python_code/Chapter6/TextClassification at master · bertbook/Python_code · GitHub

文本摘要

文本摘要是使用 NLP 和 NLU 从文档中生成或提取摘要同时保留文档的实际含义的过程。换句话说,摘要应该与文档所说的非常相似。此功能在搜索引擎系统中非常流行,其中呈现给用户的文档还包括文档摘要而不是整个文档文本。文档摘要可以是单个或多个文档摘要。文本摘要问题可以分为两类:
  • 提取摘要:在提取摘要 中,生成的摘要中的句子将仅来自文档本身。摘要中的句子不会有任何修改。这也可以定义为根据句子与文档主题的相关性对句子进行重新排列。TF-IDF、余弦相似度、基于图的方法、实体提取、标记化等几种方法已被用于积极开发文档摘要系统。

  • 抽象摘要:在抽象摘要 中,生成的摘要中的句子不会是文档本身的实际句子。这些句子将根据文档中使用的语言语义进行修改。各种基于神经网络的方法,如 LSTM、GRU 等已被用于实现这一点。

在本节中,我们将讨论如何使用 BERT 生成文档摘要。BERT 提出了一种称为 BERTSUM 的新架构,它可以从文档中生成摘要。像往常一样,BERT 用于生成多个句子的嵌入,其中标记 [CLS] 插入在第一个句子的开头之前,然后是其他句子,这些句子被标记 [SEP] 分隔。接下来,附加了段嵌入和位置嵌入以在句子之间进行隔离。然后这些句子向量通过摘要层来选择具有代表性的句子进行摘要。在摘要层,任何神经网络都可以构建摘要。图6-14显示了文档摘要模型架构。

                                        图 6-14  BERTSUM模型的架构
现在,让我们看看如何利用基于 BERT 的提取文档摘要模型。我们使用bert-extractive-summarizer , Python中提取文档摘要的实现之一来演示相同的内容。
1. 如前所述创建一个新的 Jupyter notebook 并运行以下命令来安装bert-extractive-summarizer。
! pip3 install bert-extractive-summarizer

软件包安装成功后,如图6-15所示。

                                                         图 6-1 安装包

 
2 使用此命令导入此实现所需的必要包,例如来自 Summarizer 库的摘要器。
 
from summarizer import Summarizer

3.这个库实现了 HuggingFace Pytorch 转换器来运行提取摘要。它的工作原理是生成句子的嵌入,然后使用聚类算法(例如基于密度的算法等)对最接近质心的句子进行聚类,形成一个高度密集的区域。来自最高密度区域的句子将被用来形成摘要。接下来,创建一个Summarizer实例,如此处所示。

text_summarization_model = Summarizer()
4. 将文档内容作为参数传递给刚刚创建的Summarizer实例,如此处所示。
 
from summarizer import Summarizer
def text_summary(text):
    model=Summarizer()
    return model(text)
if __ name__=='__main__':
        text = "Machine learning (ML) is the study of computer algorithms that improve automatically through experience. It is seen as a subset of artificial intelligence. Machine learning algorithms build a mathematical model based on sample data, known as "training data", in order to make predictions or decisions without being explicitly programmed to do so. Machine learning algorithms are used in a wide variety of applications, such as email filtering and computer vision, where it is difficult or infeasible to develop conventional algorithms to perform the needed tasks."
        print(text_summary(text))

此示例中的文本片段来自维基百科关于机器学习的文章。

这是结果输出:
Machine learning (ML) is the study of computer algorithms that improve automatically through experience. It is seen as a subset of artificial intelligence.

此输出显示文档的摘要,摘要中的所有句子都是文档本身的实际句子。文档可以是任意长度(例如,100 或 200 页),REST API 无法在单个 API 调用中接收如此大量的数据。因此,作为最佳实践,文档摘要系统应该仅用作后端应用程序或具有父系统(例如搜索引擎)的系统,其中作为搜索结果的一部分返回的每个文档也应该具有文档摘要。

可以从 GitHub 下载此练习的代码库,网址为Python_code/Chapter6/TextSummarization at master · bertbook/Python_code · GitHub 。

结论

本章涵盖了 BERT 在各种 NLP 任务中的适用性,例如情感分析、文本分类、实体识别和文档摘要。我们利用基于 BERT 的模型来构建基于 NLP 的系统。在下一章中,我们将讨论 BERT 中发生的最新研究。

  • 5
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 5
    评论
使用BERT搭建本地问答系统可以通过以下步骤来实现。 首先,需要准备训练数据。问答系统的训练数据需要包含问题(或者问题的描述)以及与之对应的答案或解决方案。可以从公开的问答数据集中获取数据,或者自己构建一个问题和答案的对应数据集。 接下来,需要使用BERT模型进行预训练。可以选择使用Google开源的BERT模型进行预训练,或者使用已经预训练好的模型。预训练的目的是通过海量的语料数据来训练模型,使其学会理解和表示文本。 然后,需要对训练数据进行处理,以适应BERT模型的输入格式。BERT模型接受的输入是经过分词和编码后的文本序列。可以使用分词工具如NLTK或spaCy对文本进行分词,然后将分词后的结果转换成BERT模型所需的输入格式。 接下来,可以使用BERT模型进行微调。微调的目的是将BERT模型与具体的问答任务相关的数据进行训练,以使其适应特定的问答任务。可以使用已经预训练好的BERT模型作为基础模型,在其上添加一些额外的层来进行微调。 最后,可以使用搭建好的本地问答系统进行测试和部署。可以通过输入一个问题,系统会对该问题进行分析和理解,并返回相应的答案或解决方案。 总结起来,使用BERT搭建本地问答系统需要准备训练数据、预训练BERT模型、对训练数据进行处理、进行模型微调,最后进行测试和部署。这样的问答系统可以应用于多种领域,例如智能客服、知识检索、在线教育等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Sonhhxg_柒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值