【ChatBot开发笔记】使用scrapy爬取文件建立聊天语料库


项目实训第5周快要结束了,最近进度有点慢,这一周多只搞了这个。使用scrapy爬取文件正好和web数据管理的实验有重合的要求,一箭双雕岂不美哉。
因为最终建立的程序为聊天机器人,想来想去,聊天对话最多的大量数据也就是字幕了。本来想爬取的网站为字幕库的,结果好巧不巧,就是最近,这个网站挂了。所以最终本次爬取的网站为 射手网(伪),把网页翻烂了,发现好爬的数据也就15页,200+个压缩包,先将就着用吧。

使用scrapy爬取文件

scrapy文件的创建在此不必多说了,我之前写了相应的如下:
聊天机器人——语料资源获取与词性分类。不过在此基础上,还有几个需要注意的地方。

setting.py文件修改

找到ITEM_PIPELINES,修改如下:

ITEM_PIPELINES = {
   'zimu.pipelines.ZimuPipeline': 1,
}

在其后添加下载后装入文件的地址:

FILES_STORE = '../result/download/files'

item.py文件修改

给item类添加flies和file_urls,用于后续爬取结果的装入:

class ZimuItem(scrapy.Item):
    files = scrapy.Field()
    file_urls = scrapy.Field()

zimu_spider.py实现

因为比较好爬取的就是排行榜上的文件,这里我本来想把15页全爬下来,结果写的时候 for i in range(1, 15):只爬取了前14页。

import scrapy
from ..items import ZimuItem


class ZimuSpiderSpider(scrapy.Spider):
    name = 'zimu_spider'
    allowed_domains = ['assrt.net/xml/list/sub']
    start_urls = []
    for i in range(1, 15):
        start_urls.append('http://assrt.net/xml/list/sub/?page=' + str(i))

    def parse(self, response):
        hrefs = response.selector.xpath('//div[@class="subitem"]//a[contains(@id,"downsubbtn")]/@onclick').extract()
        for url in hrefs:
            url_detail = "https://assrt.net"+url[33:-15]
            # dongt_filter必须设为true,不然可能因为屏蔽而无法爬取
            request = scrapy.Request(url=url_detail, callback=self.parse_url, dont_filter=True)

            yield request

    def parse_url(self, response):
        body = response.body
        item = ZimuItem()
        # 返回的url中取其中?前的就行了,虽然存在极少数错误,但不妨碍
        url = response.url.split("?")[0]
        item["file_urls"] = url
        item["files"] = body

        return item

修改文件pipelines.py

这个文件是很重要的,用于文件的下载写入,如下:

from scrapy.pipelines.files import FilesPipeline

class ZimuPipeline(FilesPipeline):

    def process_item(self, item, spider):
        url = item['file_urls']
        file_name = url.replace('/', '_').replace(':', '_')
        # print(file_name)
        fp = open('../result/download/files/' + file_name, 'wb')
        fp.write(item["files"])
        fp.close()
        return item

执行run.py

以上文件修改完之后就可以执行了,执行过程因为下载速度的原因需要一段时间,执行完毕后,可以在download/files/目录下看到200+文件等待处理。

对爬取文件进行初步的清理

爬取的文件中存在垃圾文件,我们需要处理后才方便后续使用,下面的文件以及需要用到的工具包,我放入了git仓库中。

correction.py删除错误格式文件

# 第一步
# 爬虫文件执行结束后,由于是使用split("?")进行文件判断命名,所以可能出现错误后缀,删除该文件即可
import os
path = "../result/download/files"
datanames = os.listdir(path)
for i in datanames:
    bool1 = i.endswith(".zip")
    bool2 = i.endswith(".rar")
    if bool1 or bool2:
        continue
    else:
        print(i)
        os.remove(path+"/"+i)

unpack.py解压缩文件

# 第二步
# 解压缩文件,删除未成功压缩的文件
import zipfile
from unrar import rarfile
import os
path = "../result/download/files"
datanames = os.listdir(path)
for i in datanames:
    bool1 = i.endswith(".zip")
    bool2 = i.endswith(".rar")
    if bool1:
        try:
            z = zipfile.ZipFile(path+"/"+i, '
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
# 说明 该库是对目前市面上已有的开源中文聊天语料的搜集和系统化整理工作 该库搜集了包含 - chatterbot - 豆瓣多轮 - PTT八卦语料 - 青云语料 - 电视剧对白语料 - 贴吧论坛回帖语料 - 微博语料 - 小黄鸡语料 共8个公开闲聊常用语料和短信,白鹭时代问答等语料。 并对8个常见语料的数据进行了统一化规整和处理,达到直接可以粗略使用的目的。 **使用该项目,即可对所有的聊天语料进行一次性的处理和统一下载,不需要到处自己去搜集下载和分别处理各种不同的格式。* # 环境 python3 # 处理过程 将各个来源的语料按照其原格式进行提取,提取后进行繁体字转换,然后统一变成一轮一轮的对话。 # 使用方法 将解压后的raw_chat_corpus文件夹放到当前目录下 目录结构为 ``` raw_chat_corpus -- language -- process_pipelines -- raw_chat_corpus ---- chatterbot-1k ---- douban-multiturn-100w ---- .... -- main.py -- ... ``` 执行命令即可 ```bash python main.py ``` 或者 ```bash python3 main.py ``` # 生成结果 每个来源的语料分别生成一个独立的*.tsv文件,都放在新生成的clean_chat_corpus文件夹下。 生成结果格式为 tsv格式,每行是一个样本,先是query,再是answer ``` query \t answer ``` # 结果的使用 这个就根据每个人不同的情况自主使用即可 个人对于聊天机器人方向实践也不是很多,以下一篇之前写的知乎专栏供参考 **《从产品完整性的角度浅谈chatbot》** 文章粗略讲解了如下一些方面,介绍了聊天机器人在实际产品化过程中可能遇到的问题和解决办法。 1. chatbot自身人格的设置 1. 产品上线需要考虑的敏感词处理 1. 文本检索模型的使用 1. 文本生成模型的使用 1. 回答打分机制 1. 万能回答的使用策略 1. 多媒体消息的处理 1. 产品模型部署的问题 # 版权说明 本项目为非商业项目,为纯搜集和汇总资料,如有侵权,请在issue下留言。
好的,这是一个比较复杂的问题,需要分几个步骤来完成。 1. 安装和配置Scrapy 首先,你需要安装Scrapy。你可以在终端中使用以下命令安装: ``` pip install scrapy ``` 安装完成后,你需要在Scrapy项目中配置以下文件:`settings.py`、`items.py`、`pipelines.py`。 其中,`settings.py`文件中需要配置一些参数,如下所示: ``` BOT_NAME = 'jd' SPIDER_MODULES = ['jd.spiders'] NEWSPIDER_MODULE = 'jd.spiders' ROBOTSTXT_OBEY = False ITEM_PIPELINES = { 'jd.pipelines.JdPipeline': 300, } FEED_EXPORT_ENCODING = 'utf-8' ``` `items.py`文件中定义了我们要抓取的数据字段,如下所示: ``` import scrapy class JdItem(scrapy.Item): title = scrapy.Field() price = scrapy.Field() comment = scrapy.Field() shop = scrapy.Field() ``` `pipelines.py`文件中我们可以对抓取到的数据进行处理,然后将其存入数据库中,如下所示: ``` import pymysql class JdPipeline(object): def __init__(self): self.connect = pymysql.connect( host='localhost', port=3306, db='jd', user='root', passwd='123456', charset='utf8', use_unicode=True) self.cursor = self.connect.cursor() def process_item(self, item, spider): self.cursor.execute( """insert into jd_goods(title, price, comment, shop) value (%s, %s, %s, %s)""", (item['title'], item['price'], item['comment'], item['shop'])) self.connect.commit() return item ``` 2. 编写Scrapy爬虫 接下来,你需要编写一个Scrapy爬虫来爬取京东商品数据。这里以爬取“手机”关键词的商品数据为例,爬取多页数据。 ``` import scrapy from jd.items import JdItem class JdSpider(scrapy.Spider): name = 'jd' allowed_domains = ['jd.com'] start_urls = ['https://search.jd.com/Search?keyword=手机&enc=utf-8'] def parse(self, response): goods_list = response.xpath('//ul[@class="gl-warp clearfix"]/li') for goods in goods_list: item = JdItem() item['title'] = goods.xpath('div[@class="gl-i-wrap"]/div[@class="p-name"]/a/em/text()').extract_first() item['price'] = goods.xpath('div[@class="gl-i-wrap"]/div[@class="p-price"]/strong/i/text()').extract_first() item['comment'] = goods.xpath('div[@class="gl-i-wrap"]/div[@class="p-commit"]/strong/a/text()').extract_first() item['shop'] = goods.xpath('div[@class="gl-i-wrap"]/div[@class="p-shop"]/span/a/text()').extract_first() yield item # 翻页 next_page = response.xpath('//a[@class="pn-next"]/@href') if next_page: url = response.urljoin(next_page.extract_first()) yield scrapy.Request(url, callback=self.parse) ``` 在命令行中输入以下命令运行Scrapy爬虫: ``` scrapy crawl jd ``` 3. 将数据可视化 最后,你需要使用Pyecharts将爬取到的数据进行可视化。这里以柱状图为例,代码如下所示: ``` import pymysql from pyecharts import options as opts from pyecharts.charts import Bar connect = pymysql.connect( host='localhost', port=3306, db='jd', user='root', passwd='123456', charset='utf8', use_unicode=True) cursor = connect.cursor() cursor.execute("""SELECT shop, COUNT(*) FROM jd_goods GROUP BY shop""") data = cursor.fetchall() bar = ( Bar() .add_xaxis([i[0] for i in data]) .add_yaxis("商品数量", [i[1] for i in data]) .set_global_opts(title_opts=opts.TitleOpts(title="京东手机商品店铺分布")) ) bar.render("jd.html") ``` 最后,你可以在浏览器中打开`jd.html`文件,查看生成的柱状图。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值