异步编程实现360图片爬虫

相信大家在爬虫的学习中发现爬虫爬取大量图片时十分的耗费时间,明明网速也不慢,但是爬取的速度就是上不来。

这是因为同步编程的爬虫是高IO操作,计算机的CPU很快,但是硬盘的下载和存储相比起来就很慢,这时候就可以使用异步编程来实现速度的飞跃。

话不多说,先上代码。

####爬取图片
import aiohttp
import asyncio
import json
import time
import aiofiles
import random


"""
获取所有页面中的图片的url
"""
def get_page_url(num):
    page_url = ["https://image.so.com/zjl?ch=wallpaper&sn={}".format(i*30) for i in range(num)]
    #print(page_url)
    return page_url

def json_url(page_json):
    pic_list = []
    page_json = json.loads(page_json)
    json_list = page_json["list"]
    for pic_json in json_list:
        pic_url = pic_json["imgurl"]
        pic_list.append(pic_url)
    return pic_list

async def get_pic(page_url):
    session = aiohttp.ClientSession()
    page_html = await session.get(page_url)
    page_json = await page_html.text()
    pic_list = json_url(page_json)
    await session.close()
    return pic_list

async def main_page(page_num):
    page_url = get_page_url(page_num)
    tasks_list = [asyncio.create_task(get_pic(url)) for url in page_url]
    pic_url_list = await asyncio.gather(*tasks_list)
    return pic_url_list


"""
第二部分 获取所有图片
"""


async def pic_task(url):
    session = aiohttp.ClientSession()
    pic_html = await session.get(url)
    pic_content = await pic_html.read()
    await session.close()
    return pic_content
    
async def save_pic(pic_in):
    num = random.uniform(-1.,1.)
    path_name = "Your-path-here"+str(num)+".jpg"
    async with aiofiles.open(path_name, mode='wb') as f:
        await f.write(pic_in)
        #print(contents)


async def get_pic_last(pages_num):
    all_pic_url = await main_page(pages_num)
    all_pic_url = [i for j in all_pic_url for i in j]
    
    
    task_list = [
    asyncio.create_task(pic_task(url)) for url in all_pic_url
    ]
    pic_content = await asyncio.gather(*task_list)
    
    
    ##############异步写出文件内容。
    save_task = [
    asyncio.create_task(save_pic(pic)) for pic in pic_content
    ]
    print("len:",len(save_task))
    await asyncio.gather(*save_task)


if __name__ == "__main__":
    t1 = time.time()
    h = asyncio.run(get_pic_last(5))
    #print("h:",h)
    t2 = time.time()
    print("花费时间:{}".format(t2-t1))

不管是同步还是异步,我们最重要的都是对网页的读取。也就是从HTML中抓到我们想要的东西,这里我们使用的JSON库来抓取

def json_url(page_json):
    pic_list = []
    page_json = json.loads(page_json)
    json_list = page_json["list"]
    for pic_json in json_list:
        pic_url = pic_json["imgurl"]
        pic_list.append(pic_url)
    return pic_list

这里format(i*30)是爬取三十页

def get_page_url(num):
    page_url = ["https://image.so.com/zjl?ch=wallpaper&sn={}".format(i*30) for i in range(num)]
    #print(page_url)
    return page_url

后面的函数和写法我也是在网络上自学的,大家可以看看函数名和结构自学一下,会对代码有更好的理解。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值