python爬虫学习(2) —— 爬一下ZOL壁纸

我喜欢去ZOL找一些动漫壁纸当作桌面,而一张一张保存显然是太慢了。
那怎么办呢,我们尝试使用简单的爬虫来解决这个问题。

0. 本爬虫目标

  1. 抓取给定分类「或子分类」网址的内容
  2. 分析并得到每个分类下的所有图片专辑
  3. 下载每一个专辑中的图片「每一个专辑对应一个文件夹」

1. 必要的分析

  • 我们打开浏览器,输入http://desk.zol.com.cn/,跳转到ZOL壁纸的首页。
  • 右键 -> 查看源代码
    • 大致浏览一下都有什么东西
    • 我们可以了解到,需要下载一张图片,我们需要选择一个专题
  • 进入专题后,我们通过点击某张图片,可以看到图片的预览
    • 当然这只是预览
    • 我们可以通过点击相应的分辨率,跳转到图片所在的真正页面
  • 进入图片所在页面后,再查看源代码
    • 我们可以找到图片在服务器上的准确位置,这就是我们想要找的地址

2. 简要的思路

  • 我们可以写一个程序,直接从某个专题开始,然后通过寻找该专题中的图片,进行下载。
  • 我这里实现的,是给定一个分类或者子分类,然后下载该分类下的所有图片
    • 比如我可以下载动漫分类下的所有图片
    • 或者我也可以下载动漫分类下的初音未来子分类下的所有图片
  • 那么,我们应该是这样做:
    1. 扒下初音未来子分类的页面内容
    2. 在页面的内容中找到当前页所有专辑对应的URL,并将URL储存起来
    3. 对每一个专辑进行操作 for url in URL
      • 确定专辑中图片数量
      • 进入每一个图片所在的页面:
        • 确定要下载的图片的分辨率「这里我直接默认找最大分辨率」
        • 下载该图片
    4. 判断是否有下一页,有的话继续执行3

3. 先上code为敬

# *-* coding: UTF-8 *-*
__author__ = 'BG'
import urllib2
import os
import re

class ZOLPIC:

    # 初始化ZOLPIC类
    # 默认的base地址为ZOL壁纸首页
    # 通过手动读入想要下载的图片分类地址
    # 创建文件夹
    def __init__(self):
        self.base_html = "http://desk.zol.com.cn"
        print "请输入想要下载的图片分类的网址:"
        self.cla_html = raw_input()
        if not os.path.exists('./PIC'):
            os.mkdir(r'./PIC')

    # 获取某个页面的内容
    def getHtml(self,url):  
        try:
            html = urllib2.urlopen(url)
            html = html.read().decode('gbk').encode('utf-8')    
            return html
        except:
            return None

    # 下载图片
    # 通过正则表达式对图片地址进行匹配
    # 创建文件并写入数据
    def downloadPic(self,url,ml):
        src_html = re.search(r'<img src="(.*?)">',url).group(1)
        pic_name = re.search(r'http.*/(.*[jpg|png])',src_html).group(1)
        file_name = r'./PIC/'+ ml + r'/' + pic_name
        if os.path.exists(file_name):                           #已经抓取过
            print '图片已经存在 %s' % pic_name
            return
        picsrc = urllib2.urlopen(src_html).read()
        # print picsrc
        print '正在下载图片 %s' % pic_name
        open( file_name,"wb").write(picsrc)

    def startCrawler(self):
        html = self.getHtml(self.cla_html)
        while True:
            page = re.search(r'<ul class="pic-list2  clearfix">(.*)</ins></li>      </ul>',html,re.DOTALL).group(1)
            pic = re.findall(r'href="(/bizhi/.*?html)"',page,re.DOTALL)
            for p in pic:
                cur_page = self.getHtml(self.base_html+p)
                picTotal = int(re.search(r'picTotal         : ([0-9]+)',cur_page).group(1))
                ml_name = re.search(r'nowGroupName  : "(.*?)"',cur_page).group(1)
                print '\n\n当前组图名: %s , 共有 %d 张 '%(ml_name,picTotal)
                print '-------------------------------------------'
                if not os.path.exists(r'./PIC/'+str(ml_name)):
                    os.mkdir(r'./PIC/'+str(ml_name))
                while picTotal > 0 :
                    ori_screen  =  re.search(r'oriScreen.*: "(.*?)"',cur_page).group(1)
                    # print ori_screen
                    if  ori_screen:
                        full_pic = re.search(r'href="(/showpic/%s.*?.html)'%ori_screen,cur_page).group(1)
                        # print full_pic
                        next_page = cur_page
                        cur_page = self.getHtml(self.base_html+full_pic)
                        # print cur_page
                        self.downloadPic(cur_page,ml_name)
                        cur_page = self.base_html + re.search(r'nextPic.*: "(/bizhi/.*?html)"',next_page).group(1)
                        cur_page = self.getHtml(cur_page)
                    picTotal = picTotal - 1
                    print '-------------------------------------------'
            nextPage = re.search(r'<a id="pageNext" href="(.*)" class="next".*?>',html)
            if nextPage == None:
                return
            html = self.getHtml(self.base_html + nextPage.group(1)) 

if __name__ == '__main__':
    spider = ZOLPIC()
    spider.startCrawler()

基本的解释已经放在了代码里

  • 通过urlopen()来获取页面
  • 通过open() write()进行写入
  • 通过正则表达式来进行匹配和筛选信息
  • 通过os.path.exists('./PIC')来判断某个路径是否存在,不存在则调用os.mkdir()进行创建

最后就是startCrawler()这个函数,他将我们上面的思路代码化
利用了正则表达式进行匹配,找到我们所需要的URL,再针对URL进行具体的操作

4. 搜刮ZOL吧!

我测试的时候,爬虫总共爬取了2.3GB的图片
效果图如下「推荐在新标签页中打开图片,有惊喜哦」:

下载

爆炸

海贼王

5. 一些说明

  • 本爬虫宝宝是单线程的
  • 本宝宝默认下载最大分辨率的图片「因为人家喜欢高清的图片啦」
  • 本宝宝只能在linux系统下运行「原因是我没有处理字符编码问题,在windows下会出现乱码」

转载于:https://www.cnblogs.com/BigBallon/p/6215879.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值