并发爬取网站图片

某网站的图片:

通过“https://photo.fengniao.com/#p=4”(人像)进入某一主题。

显示的是几十张缩略的小图片以及相应的跳转地址,点击小图片后获取大图片。

想获取小图片背后的大图片,如果通过串行方法依次访问大图链接后保存,会非常耗时。

 

1,使用多线程获取图片

import requests
from lxml import etree
from concurrent.futures import ThreadPoolExecutor
from functools import partial


def get_paths(path, regex, code):
    """
    :param path: 网页
    :param regex: 解析规则
    :param code: 编码
    :return: 根据解析规则,解析网页后返回内容列表
    """
    resp = requests.get(path)
    if resp.status_code == 200:
        select = etree.HTML(resp.text)
        paths = select.xpath(regex)
        return paths


def save_pic(path, pic_name, directory):
    """
    :param pic_name: 保存的图片名称
    :param path: 图片的地址
    :param directory: 保存的图片目录
    :return:
    """
    resp = requests.get(path, stream=True)
    if resp.status_code == 200:
        with open('{}/{}.jpg'.format(directory, pic_name), 'wb') as f:
            f.write(resp.content)


if __name__ == '__main__':
    paths = get_paths('https://photo.fengniao.com/#p=4', '//a[@class="pic"]/@href', 'utf-8')
    paths = ['https://photo.fengniao.com/' + p for p in paths]

    # 获取所有大图片路径
    p = partial(get_paths, regex='//img[@class="picBig"]/@src', code='utf-8')  # 冻结解析规则,编码
    with ThreadPoolExecutor() as excutor:
        res = excutor.map(p, paths)
    big_paths = [i[0] for i in res]  # 拿到所有图片的路径

    # 保存图片
    p = partial(save_pic, directory='fn_pics')   # 冻结保存目录
    with ThreadPoolExecutor() as excutor:
        res = excutor.map(p, big_paths, range(len(big_paths)))
    [r for r in res]

 

转载于:https://www.cnblogs.com/guxh/p/10351655.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值