Python基础进阶之海量表情包多线程爬虫

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理
在这里插入图片描述

一、前言

在我们日常聊天的过程中会使用大量的表情包,那么如何去获取表情包资源呢?今天老师带领大家使用python中的爬虫去一键下载海量表情包资源

二、知识点

requests网络库
bs4选择器
文件操作
多线程

三、所用到得库

import os
import requests
from bs4 import BeautifulSoup

四、 功能

# 多线程程序需要用到的一些包
# 队列
from queue import Queue
from threading import Thread

五、环境配置

解释器 python3.6
编辑器 pycharm专业版 激活码

六、多线程类代码

# 多线程类
class Download_Images(Thread):
    # 重写构造函数
    def __init__(self, queue, path):
        Thread.__init__(self)
        # 类属性
        self.queue = queue
        self.path = path

        if not os.path.exists(path):
            os.mkdir(path)

    def run(self) -> None:
        while True:
            # 图片资源的url链接地址
            url = self.queue.get()
            try:
                download_images(url, self.path)
            except:
                print('下载失败')
            finally:
                # 当爬虫程序执行完成/出错中断之后发送消息给线程 代表线程必须停止执行
                self.queue.task_done()

七、爬虫代码

# 爬虫代码
def download_images(url, path):
    headers = {
        'User-Agent':
            'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    response = requests.get(url, headers=headers)
    soup = BeautifulSoup(response.text, 'lxml')
    img_list = soup.find_all('img', class_='ui image lazy')

    for img in img_list:
        image_title = img['title']
        image_url = img['data-original']

        try:
            with open(path + image_title + os.path.splitext(image_url)[-1], 'wb') as f:
                image = requests.get(image_url, headers=headers).content
                print('正在保存图片:', image_title)
                f.write(image)
                print('保存成功:', image_title)
        except:
            pass


if __name__ == '__main__':
    _url = 'https://fabiaoqing.com/biaoqing/lists/page/{page}.html'
    urls = [_url.format(page=page) for page in range(1, 201)]
    queue = Queue()
    path = './threading_images/'

    for x in range(10):
        worker = Download_Images(queue, path)
        worker.daemon = True
        worker.start()

    for url in urls:
        queue.put(url)

    queue.join()
    print('下载完成...')

八、爬取效果图片

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值