背景
听半佛老师说他的表情包是爬的,有点好奇是怎么爬的?由此有了这篇文章。
我调研了几个表情包的网站,最后以斗图网为例https://www.doutula.com/photo/list/爬取网站上的表情图片。
为了简单,用python +Scrapy去做。
环境
Python3 + Scrapy(1.6.0)+ urllib + BeautifulSoup
如果没有Scrapy包,pip3 install Scrapy即可。
参考:https://docs.scrapy.org/en/latest/intro/tutorial.html
步骤
1.创建scrapy项目
# 最后一个是项目路径,会创建一个同名项目
scrapy startproject scrapy_test
命令创建项目,就像一些脚手架一样生成一个项目组织路径。会生成一个cfg文件,和一个同名scrapy_test路径,路径下有一个spiders路径,爬取的逻辑就在这个路径下写一个新类,实现scrpy.Spider的方法,此处新建了img_spider.py,逻辑怎么实现呢?向下看~
2.Spider爬取逻辑
- 指定名称name,后续启动要用
- 重写start_tequests,爬取指定地址,指定回调函数
- 重写回调函数parse,解析http响应,提取img标签中的图片路径,使用urllib http请求图片路径,并写入本地文件。
import os
import urllib
import scrapy
from bs4 import BeautifulSoup
class QuotesSpider(scrapy.Spider):
name = "images"
# 发送http请求
def start_requests(self):
urls = [
'https://www.doutula.com/photo/list/'
]
for url in urls:
yield scrapy.Request(url=url, callback=self.parse) # 回调解析函数
# 解析http响应,
def parse(self, response):
print(response)
soup = BeautifulSoup(response.body, 'html.parser')
path = "./result/"
os.makedirs(path) #创建多级目录
# 解析html标签,获取img标签
tags = soup('img')
for tag in tags:
url = tag.get('data-original', None) #调研了网站,图片路径放在这个属性里
print(url)
if url != None:
arr = url.split(sep='/')
imgNm = arr[len(arr) - 1] # 获取文件名称
img = urllib.request.urlopen(url) # 获取图片
# output
fhand = open(path+imgNm, 'wb') # 打开本地文件
size = 0
# 分次拷贝
while True:
info = img.read(100000)
if len(info) < 1: break
size = size + len(info)
fhand.write(info) # 防止一次性内存过大,分批写入到本地
print(size, 'characters copied.')
fhand.close()
3.启动scrapy
scrapy crawl images
启动抓取后,跑一会儿就会发现成功啦,当前路径下创建了个result路径,切图片已经写入到这个路径下了~
4.展望
其实这个网站是分页展示的,后续可以优化下,这样可以将所有页的图片都下载下来。
由于这个网站有3500+页,这篇仅是最简单的小demo,暂时就不做了,其实最简单实现方案就是urls数组增加带页号的url,如https://www.doutula.com/photo/list/?page=2。