NLP学习笔记-聊天机器人项目准备(三)

走进聊天机器人

1. 目前企业中的常见的聊天机器人

  1. QA BOT(问答机器人):回答问题,有明确目标,能够返回结果
    1. 代表 :智能客服、
    2. 比如:提问和回答
  2. TASK BOT (任务机器人):通过机器人帮助人去完成事情
    1. 代表:siri
    2. 比如:设置明天早上9点的闹钟
  3. CHAT BOT(聊天机器人):无明确目标,通用、开放聊天
    1. 代表:微软小冰

2. 常见的聊天机器人怎么实现的

2.1 问答机器人的常见实现手段
  1. 信息检索、搜索 (简单,效果一般,对数据问答对的要求高)

    关键词:tfidf、SVM、朴素贝叶斯、RNN、CNN

  2. 知识图谱(相对复杂,效果好,很多论文)

    图形数据库中存储知识和知识间的关系、把问答转化为查询语句、能够实现推理

2.2 任务机器人的常见实现思路
  1. 语音转文字
  2. 意图识别、领域识别、文本分类
  3. 槽位填充:比如买机票的机器人 使用命令体识别填充 从{位置}到{位置}的票2个位置的
  4. 回话管理、回话策略
  5. 自然语言生成
  6. 文本转语音
2.3 闲聊机器人的常见实现思路
  1. 信息检索(简单、能够回答的话术有限)
  2. seq2seq 和变种(答案覆盖率高,但是不能保证答案的通顺等)

3. 企业中的聊天机器人是如何实现的

3.1 阿里小蜜-电商智能助理是如何实现的

参考地址:https://juejin.im/entry/59e96f946fb9a04510499c7f

3.1.1 主要交互过程

在这里插入图片描述

从图可以看出:

  1. 输入:语音转化为文本,进行理解之后根据上下文得到语义的表示
  2. 输出:根据语义的表是和生成方法得到文本,再把文本转化为语音输出
3.1.2 技术架构

在这里插入图片描述

可以看出其流程为:

  1. 判断用户意图
  2. 如果意图为面向目标:可能是问答型或者是任务型
  3. 如果非面向目标:可能是语聊型
3.1.3 检索模型流程(小蜜还用了其他的模型,这里以此为例)

在这里插入图片描述

通过上图可知,小蜜的检索式回答的流程大致为:

  1. 对问题进行处理
  2. 根据问题进行召回,使用了提前准备的结构化的语料和训练的模型
  3. 对召回的结果进行组长和日志记录
  4. 对召回的结果进行相似度计算,情感分析和属性识别
  5. 返回组装的结果

3.2 58同城智能客服帮帮如何实现的

参考地址:http://www.6aiq.com/article/1536149308075?p=1&m=0

3.2.1 58客服体系

58的客服主要用户为公司端和个人端,智能客服主要实现自动回答,如果回答不好会转到人工客服,其中自动回答需要覆盖的问题包括:业务咨询、投诉建议等

3.2.2 58智能客服整体架构

整体来看,58的客服架构分为三个部分

  1. 基础服务,实现基础的NLP的功能和意图识别
  2. 应用对话部分实现不同意图的模型,同时包括编辑运营等内容
  3. 提供对外的接口
3.2.3 业务咨询服务流程
大致流程

KB-bot的流程大致为:

  1. 对问题进行基础处理
  2. 对答案通过tfidf等方法进行召回
  3. 对答案通过规则、深度神经网络等方法进行重排序
  4. 返回答案排序列表
使用融合的模型

在问答模型的深度网络模型中使用了多套模型进行融合来获取结果

  1. 在模型层应用了 FastText、TextCNN 和 Bi-LSTM 等模型
  2. 在特征层尝试使用了单字、词、词性、词语属性等多种特征

通过以上两个模型来组合获取相似的问题,返回相似问题ID对应的答案

3.2.4 58的闲聊机器人

58同城的闲聊机器人使用三种方法包括:

  1. 基于模板匹配的方法
  2. 基于搜索的方式获取(上上图)
  3. 使用seq2seq的神经网络来实现
3.2.5 解决不了转人工服务

​ 智能客服解决不了的可以使用人工客服来实现

需求分析和流程介绍

1. 需求分析

在黑马头条的小智同学板块实现聊天机器人,能够起到智能客服的效果,能够为使用app的用户解决基础的问题,而不用额外的人力。

但是由于语料的限制,所以这里使用了编程相关的问题,能够回答类似:python是什么python有什么优势等问题

2. 效果演示

在这里插入图片描述

3. 实现流程

3.1 整体架构

在这里插入图片描述

整个流程的描述如下:

  1. 接受用户的问题之后,对问题进行基础的处理
  2. 对处理后的问题进行分类,进行意图识别
  3. 分类,如果用户希望闲聊,那么调用闲聊模型返回结果
  4. 分类,如果用户希望咨询问题,那么调用问答模型返回结果
3.2 闲聊模型

闲聊模型使用了seq2seq模型实现

包含:

  1. 对数据的embedding
  2. 编码层
  3. attention机制的处理
  4. 解码层

在这里插入图片描述

3.4 问答模型

问答模型使用了召回和排序的机制来实现,保证获取的速度的同时保证了准确率

  1. 问题分析:对问题进行基础的处理,包括分词,词性的获取,词向量的获取
  2. 问题的召回:通过机器学习的方法进行海选,海选出大致满足要求的相似问题的前K个
  3. 问题的排序精选,通过深度学习的模型对问题计算准确率,进行排序(信息检索)
  4. 设置阈值,返回结果

在这里插入图片描述
在这里插入图片描述

环境准备

目标

1. Anaconda环境准备

  1. 下载地址:https://mirror.tuna.tsinghua.edu.cn/help/anaconda/

  2. 下载对应电脑版本软件,安装

    1. windows :双击exe文件
    2. unix:给sh文件添加可执行权限,执行sh文件
  3. 添加到环境变量

    1. windows安装过程中勾选
    2. unix:export PATH="/root/miniconda3/bin:$PATH"
  4. 创建虚拟环境

    1. conda create -n 名字 python=3.6(版本)
    2. 查看所有虚拟环境: conda env list
  5. 切换到虚拟环境

    1. conda activate 名字
  6. 退出虚拟环境

    1. conda deactivate 名字

2. fasttext安装

windows 安装fastText
文档地址:https://fasttext.cc/docs/en/support.html

github地址:<https://github.com/facebookresearch/fastText

安装步骤:

  1. 下载 git clone https://github.com/facebookresearch/fastText.git
  2. cd cd fastText
  3. 编译 make
  4. 安装 python setup.py install

3. pysparnn安装

文档地址:https://github.com/facebookresearch/pysparnn

安装步骤:

  1. 下载:git clone https://github.com/facebookresearch/pysparnn.git
  2. cd cd pysparnn
  3. 安装:python setupy.py install

语料准备

词典、停用词、问答对、相似问题

1. 分词词典

最终词典的格式:

词语 词性(不要和jieba默认的词性重复)

在这里插入图片描述
目录结构

D:.
├─chat_service
│  ├─prepar_corpus
│  │  ├─prepar_user_dict
│  │  │  └─__pycache__
│  │  └─__pycache__
│  └─__pycache__
├─corpus
│  └─user_dict
└─__pycache__

在这里插入图片描述
准备好的语料
在这里插入图片描述
test_user_dict.py

"""
测试用户词典
"""
import jieba
import config

# jieba.load_userdict(path)导入指定路径下的语料
jieba.load_userdict(config.user_dict_path)


def test_user_dict():
    sentence = '人工智能+python和c++哪个难'
    # cut返回生成器, lcut返回列表
    ret = jieba.lcut(sentence)
    print(ret)
['人工智能+python', '和', 'c++', '哪个', '难']
1.1 词典来源
  1. 各种输入法的词典

    例如:https://pinyin.sogou.com/dict/cate/index/97?rf=dictindex

    例如:https://shurufa.baidu.com/dict_list?cid=211

  2. 手动收集,根据目前的需求,我们可以手动收集如下词典

    1. 机构名称,例如:传智传智播客,黑马程序员
    2. 课程名词,例如:python,人工智能+pythonc++
1.2 词典处理

输入法的词典都是特殊格式,需要使用特殊的工具才能够把它转化为文本格式

工具名称:深蓝词库转换.exe

下载地址:https://github.com/studyzy/imewlconverter

1.3 对多个词典文件内容进行合并

下载使用不同平台的多个词典之后,把所有的txt文件合并到一起供之后使用

2. 准备停用词

2.1 停用词?

对句子进行分词之后,句子中不重要的词

2.2 停用词的准备

常用停用词下载地址:https://github.com/goto456/stopwords

2.3 手动筛选和合并

对于停用词的具体内容,不同场景下可能需要保留和去除的词语不一样

比如:词语哪个,很多场景可以删除,但是在判断语义的时候则不行

3. 问答对的准备

3.1 现有问答对的样式

问答对有两部分,一部分是咨询老师整理的问答对,一部分是excel中的问答对,

最终需要把问答对分别整理到两个txt文档中,如下图(左边是问题,右边是答案):

在这里插入图片描述

Excel中的问答对如下图:

在这里插入图片描述

3.2 excel中问答对的处理

Excel中的问答对直接使用pandas就能够处理

import pandas as pd
import re
python_qa_path = "./data/Python短问答-11月汇总.xlsx"
def load_duanwenda():
    ret = pd.read_excel(python_qa_path)
    column_list = ret.columns
    assert '问题' in column_list and "答案" in column_list,"excel 中必须包含问题和答案"
    for q,a in zip(ret["问题"],ret["答案"]):
        q = re.sub("\s+"," ",q)
        q = q.strip()
        print(q,a)

注意:No module named ‘xlrd’ 错误
python的xlrd库是第三方的,需要另外自行安装。pip install xlrd

4. 相似问答对的采集

4.1 采集相似问答对的目的

后续在判断问题相似度的时候,需要有语料用来进行模型的训练,输入两个句子,输出相似度,这个语料不好获取,所以决定从百度知道入手,采集百度知道上面的相似问题,如下图所示:

在这里插入图片描述

上面采集的数据会存在部分噪声,部分问题搜索到的结果语义上并不是太相似

4.2 手动构造数据

根据前面的问答对的内容,把问题大致分为了若干类型,对不同类型的问题设计模板,然后构造问题,问题模块如下:

templete = [
#概念
["{kc}","什么是{kc}","{kc}是什么","给我介绍一下{kc}","{kc}可以干什么","能简单说下什么是{kc}吗","我想了解{kc}"],

#课程优势
["{kc}课程有什么特点","{jgmc}的{kc}课程有什么特点","{jgmc}的{kc}课程有什么优势","为什么我要来{jgmc}学习{kc}","{jgmc}的{kc}课程有什么优势","为什么要到{jgmc}学习{kc}","{jgmc}的{kc}跟其他机构有什么区别?","为什么选择{jgmc}来学习{kc}?"],

#语言优势
#["{kc}","什么是{kc}","{kc}是什么","给我介绍一下{kc}","{kc}可以干什么","能简单说下什么是{kc}吗"], 
#特点
["{kc}有什么特点","{kc}有什么优势","{kc}有什么亮点","{kc}有那些亮点","{kc}有那些优势","{kc}有那些特点","{kc}的亮点是什么","{kc}的优势是什么","{kc}的特点是什么"],
#发展前景
["{kc}的发展怎么样?","{kc}的前景怎么样?","{kc}的发展前景如何?","{kc}的未来怎样","{kc}的前景好么" ],
#就业
["{kc}好就业么","{kc}就业机会多么","{kc}的岗位多吗","{kc}工作好找吗","{kc}的市场需求怎么样","{kc}的就业环境怎么样"],
#就业方向
["{kc}学完以后能具体从事哪方面工作?","{kc}的就业岗位有哪些?","{kc}课程学完应聘哪方面工作?","{kc}可以从事哪方面工作?",],
#用途
["{kc}学完可以做什么","{kc}能干什么","学{kc}能干什么","能举例说下{kc}能做什么吗?","{kc}毕业了能干什么","{kc}主要应用在什么领域"],
#就业薪资
["{kc}学完工资多少","学完{kc}能拿多少钱","{kc}的就业薪资多少","{kc}就业的平均是工资多少"],
#学习难度
["{kc}简单么","{kc}容易么","{kc}课程容易么","{kc}上手快么","{kc}课程难么"],
#校区
["在那些城市开设了{kc}","哪里可以学习{kc}","学习{kc}可以去那些城市","{kc}在哪里开班了"],
#学费
["{kc}学费","{kc}多少钱","{kc}的学费多少","{kc}是怎么收费的?","学习{kc}要花多少钱","{kc}是怎么收费的","{kc}课程的价格","{kc}课程的价格是多少"],
#适合人群
["什么人可以学{kc}","哪些人可以学{kc}","学习{kc}有什么要求","学习{kc}需要那些条件","没有基础可以学{kc}吗","学历低可以学习{kc}吗?","成绩不好可以学习{kc}吗?","什么样的人适合学习{kc}?"],
#学习时间
["{kc}需要学多久","{kc}需要多久才能就业","{kc}需要学习多长时间","{kc}的学时是多少","{kc}的课时是多少","{kc}课时","{kc}课时长度","{kc}的课程周期?","0基础学{kc}多久能才就业"],
#学习内容
["{kc}学什么","{kc}学习那些内容","我们在{kc}中学习那些内容","在{kc}中大致都学习什么内容"],
#项目内容
["{kc}的项目有哪些","{kc}有哪些项目","{kc}上课都有哪些实战","{kc}做什么项目?","{kc}项目有多少个?","{kc}课程中有项目吗?"],
#学习某课程的好处
["为什么要学习{kc}?","学习{kc}有哪些好处?","学习{kc}的理由?","为什么我要来学习{kc}"],
#上课时间
["上课时间","你们那边每天的上课时间是怎样的呢?"],
#英语要求
["学习{kc}对英语有要求么","来{jgmc}学习对英语有要求吗?"]
]

其中大括号的内容kc表示课程,jgmc表示机构名称

接下来,需要完成两件事

  1. 最终我们会把前面准备好的课程字典和机构名称字典中的词语放入大括号中
  2. 把kc相同的内容构造成相似问题

文本分词

1. 准备词典和停用词

1.1 准备词典

在这里插入图片描述

1.2 准备停用词

stopwords = set([i.strip() for i in open(config.stopwords_path).readlines()])

2. 准备按照单个字切分句子的方法

def _cut_by_word(sentence):
    # 对中文按照字进行处理,对英文不分为字母
    sentence = re.sub("\s+"," ",sentence)
    sentence = sentence.strip()
    result = []
    temp = ""
    for word in sentence:
        if word.lower() in letters:
            temp += word.lower()
        else:
            if temp != "": #不是字母
                result.append(temp)
                temp = ""
            if word.strip() in filters: #标点符号
                continue
            else: #是单个字
                result.append(word)
    if temp != "": #最后的temp中包含字母
        result.append(temp)
    return result

3. 完成分词方法的封装

lib 下创建cut_sentence.py文件,完成分词方法的构建

import logging
import jieba
import jieba.posseg as psg
import config
import re
import string

#关闭jieba log输出
jieba.setLogLevel(logging.INFO)
#加载词典
jieba.load_userdict(config.keywords_path)
#单字分割,英文部分 string.ascii_lowercase为a-z
letters = string.ascii_lowercase
#单字分割 去除的标点
filters= [",","-","."," "]
#停用词
stopwords = set([i.strip() for i in open(config.stopwords_path).readlines()])


def cut(sentence,by_word=False,use_stopwords=False,with_sg=False):
    assert by_word!=True or with_sg!=True,"根据word切分时候无法返回词性"
    if by_word:
        return _cut_by_word(sentence)
    else:
        ret = psg.lcut(sentence)
        if use_stopwords:
            ret = [(i.word,i.flag) for i in ret if i.word not in stopwords]
        if not with_sg:
            ret = [i.word for i in ret]
        return ret


def _cut_by_word(sentence):
    # 对中文按照字进行处理,对英文不分为字母
    sentence = re.sub("\s+"," ",sentence)
    sentence = sentence.strip()
    result = []
    temp = ""
    for word in sentence:
        if word.lower() in letters:
            temp += word.lower()
        else:
            if temp != "": #不是字母
                result.append(temp)
                temp = ""
            if word.strip() in filters: #标点符号
                continue
            else: #是单个字
                result.append(word)
    if temp != "": #最后的temp中包含字母
        result.append(temp)
    return result
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值