Python 多线程爬虫

实现多线程爬虫

  • 为什么要爬虫使用多线程?
  • 为了提高抓取数据效率
  • 有些网站对访问速度有限制, 这样网站可以可以开启多个线程, 每一个线程使用一个代理,去提取页面的一部分内容
    在这里插入图片描述

1.多线程的方法使用

在python3中,主线程主进程结束,子线程,子进程不会结束 为了能够让主线程回收子线程,可以把子线程设置为守护线程,即该线程不重要,主线程结束,子线程结束

t1 = threading.Thread(targe=func,args=(,))
t1.setDaemon(True)
t1.start() #此时线程才会启动

队列模块的使用

    from queue import Queue
    q = Queue(maxsize=100)
    item = {}
    q.put_nowait(item) #不等待直接放,队列满的时候会报错
    q.put(item) #放入数据,队列满的时候回等待
    q.get_nowait() #不等待直接取,队列空的时候会报错
    q.get() #取出数据,队列为空的时候会等待
    q.qsize() #获取队列中现存数据的个数 
    q.join() #队列中维持了一个计数,计数不为0时候让主线程阻塞等待,队列计数为0的时候才会继续往后执行
    q.task_done() 
    # put的时候计数+1,get不会-1,get需要和task_done 一起使用才会-1
    ```
    ## 3. 线程中使用队列
    **队列可用于线程间的数据通讯**
    ```l
    from queue import Queue
import threading

q = Queue()
def add_to_queue():
    for i in range(0, 100):
        print("存入队列: {}".format(i))
        q.put(i)

def get_from_queue():
    # 但是在我们获取队列元素的时候, 我们并不知道队列中放了几个元素,
    # 这个时候我们就会使用while的死循环来获取,知道取完为止
    # for i in range(0, 100):
    while True:
        print("从队列中取出: {}".format(q.get()))
        q.task_done()

# 创建线程
t = threading.Thread(target=add_to_queue)
# 设置为守护线程
t.setDaemon(True)
# 启动线程
t.start()

t = threading.Thread(target=get_from_queue)
t.setDaemon(True)
t.start()

# 队列加入主线线程, 等待队列中任务完成为止
q.join()

装饰器的基本使用

装饰器的作用: 不改变原有函数,给函数添加额外功能

# 定义装饰一个死循环执行任务的装饰器
def run_forever(func):
    def forever(obj):
        while True:
            func(obj)
    return forever

# 使用装饰器
@run_forever # 等同于 run_forever(run)
def run(obj):
    print("人生苦短,我用Python {}".format(obj))

# 执行函数
run('Hpayy')

糗事百科多线程

  • 实现步骤
  1. 在init方法中, 创建 URL队列, 响应队列, 数据队列
  2. 在生成URL列表中方法中,把URL添加URL队列中
  3. 在请求页面的方法中,从URL队列中取出URL执行,把获取到的响应数据添加响应队列中
  4. 在处理数据的方法中,从响应队列中取出页面内容进行解析, 把解析结果存储数据队列中
  5. 在保存数据的方法中, 从数据队列中取出数据,进行保存
  6. 开启几个线程来执行上面的方法
  • 注意: 开的线程数取决于这个任务耗时, 耗时长的就多开几个线程.
import requests
from lxml import etree
import json
from queue import Queue
import threading

'''
1. 创建 URL队列, 响应队列, 数据队列 在init方法中
2. 在生成URL列表中方法中,把URL添加URL队列中
3. 在请求页面的方法中,从URL队列中取出URL执行,把获取到的响应数据添加响应队列中
4. 在处理数据的方法中,从响应队列中取出页面内容进行解析, 把解析结果存储数据队列中
5. 在保存数据的方法中, 从数据队列中取出数据,进行保存
6. 开启几个线程来执行上面的方法
'''

def run_forever(func):
    def wrapper(obj):
        while True:
            func(obj)
    return wrapper


class QiubaiSpider(object):

    def __init__(self):
        self.headers = {
            'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36'
        }
        self.url_pattern = 'https://www.qiushibaike.com/8hr/page/{}/'
        # url 队列
        self.url_queue = Queue()
        # 响应队列
        self.page_queue = Queue()
        # 数据队列
        self.data_queue = Queue()


    def add_url_to_queue(self):
        # 把URL添加url队列中
        for i in range(1, 14):
            self.url_queue.put(self.url_pattern.format(i))

    @run_forever
    def add_page_to_queue(self):
        ''' 发送请求获取数据 '''
        url = self.url_queue.get()
        # print(url)
        response = requests.get(url, headers=self.headers)
        print(response.status_code)
        if response.status_code != 200:
            self.url_queue.put(url)
        else:
            self.page_queue.put(response.content)
        # 完成当前URL任务
        self.url_queue.task_done()

    @run_forever
    def add_dz_to_queue(self):
        '''根据页面内容使用lxml解析数据, 获取段子列表'''
        page = self.page_queue.get()
        # print(page)
        element = etree.HTML(page)
        # 先分组,获取分组列表
        div_s = element.xpath('//*[@id="content-left"]/div')
        # 遍历分组列表, 再使用xpath获取内容
        dz_list = []
        for div in div_s:
            item = {}
            # 每个段子包含发送人头像URL, 昵称, 性别, 段子内容, 好笑数,评论数
            # 头像URL
            item['head_url'] = self.get_first_element(div.xpath('./div[1]/a[1]/img/@src'))
            if item['head_url'] is not None:
                item['head_url'] = 'http:' + item['head_url']

                # 昵称
            item['author_name'] = self.get_first_element(div.xpath('./div[1]/a[2]/h2/text()'))
            # 性别
            gender_class = self.get_first_element(div.xpath('./div[1]/div/@class'))
            if gender_class is not None:
                item['author_gender'] = 'man' if gender_class.find('man') != -1 else 'women'
            # 段子内容
            item['dz_content'] = self.get_first_element(div.xpath('./a/div/span[1]/text()'))

            # 好笑数
            item['dz_funny'] = self.get_first_element(div.xpath('./div[2]/span[1]/i/text()'))
            # 评论数
            item['dz_comments'] = self.get_first_element(div.xpath('./div[2]/span[2]/a/i/text()'))
            # print(item
            dz_list.append(item)
        # print(dz_list)
        self.data_queue.put(dz_list)
        self.page_queue.task_done()

    def get_first_element(self, list):
        '''获取列表中第一个元素,如果是空列表就返回None'''
        return list[0] if len(list) != 0 else None

    @run_forever
    def save_dz_list(self):
        '''把段子信息保存到文件中'''
        dz_list = self.data_queue.get()
        # print(dz_list)
        with open('qiushi_thread.txt', 'a', encoding='utf8') as f:
            for dz in dz_list:
                json.dump(dz, f, ensure_ascii=False)
                f.write('\n')
        self.data_queue.task_done()


    def run_use_more_task(self, func, count=1):
        '''把func放到线程中执行, count:开启多少线程执行'''
        for i in range(0, count):
            t = threading.Thread(target=func)
            t.setDaemon(True)
            t.start()

    def run(self):
        # 开启线程执行上面的几个方法
        url_t = threading.Thread(target=self.add_url_to_queue)
        # url_t.setDaemon(True)
        url_t.start()

        self.run_use_more_task(self.add_page_to_queue, 3)
        self.run_use_more_task(self.add_dz_to_queue, 2)
        self.run_use_more_task(self.save_dz_list, 2)

        # 使用队列join方法,等待队列任务都完成了才结束
        self.url_queue.join()
        self.page_queue.join()
        self.data_queue.join()

if __name__ == '__main__':
    qbs = QiubaiSpider()
    qbs.run()

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值