Python3爬虫学习笔记2.2——爬图片-妹子图

原创 2016年08月28日 23:40:20

正是有失远迎,今天尝试爬取妹子图妹子图
我们首先确认一下自己要爬取网页图片的规律。打开首页会发现每页都有10个写真集。url为 www.meizitu.com
这里写图片描述
现在我们打开第二页看下
第二页
这里就发现了一个问题,打开第二页后 ,下面的页面显示仍然为第1页;这个时候的页面中有30个写真集,页面的url为www.meizitu.com/a/list_1_1.html。
我们在该页面中任意点开一个写真集,每个写真集里边会有数张图片,这些图片证实我们想要了。
这是我们观察一下该页面的url,为:www.meizitu.com/a/5418.html。
可以选择直接访问图片页面的url来爬取,但是我们不确定页面的数字是否连续。所以我们选择先打开写真集列表页面,在打开写真集的页面的方式来访问,并保存我们想要的图片。

def getUrl(self,target_url,start_page,page_num):
        all_urls=[]
        for i in range(start_page,page_num+1):
            new_urls=re.sub('/list_1_\d','/list_1_%d'%i,target_url,re.S)
            all_urls.append(new_urls)
        return all_urls

用该代码可以得到所有待爬取写真集列表的url。然后再每个写真集的列表页面中,得到每个写真集的url。即

def getLink(self,page_link):
        page_html=requests.get(page_link,timeout=0.5)
        all_pic_link=re.findall('<a target=\'_blank\' href="(.*?)">',page_html.text,re.S)
        return all_pic_link

在该页面可以得到所有的图片,然后将其保存即可,整理代码如下。ps:改代码有点小问题,就是在最后几页的爬取过程中,图片的正则表达式不匹配,那几页的页面源码和最近页面的不一样。改一下正则表达式就可以了。

import re
import requests

class spider():
    def getUrl(self,target_url,start_page,page_num):
        all_urls=[]
        for i in range(start_page,page_num+1):
            new_urls=re.sub('/list_1_\d','/list_1_%d'%i,target_url,re.S)
            all_urls.append(new_urls)
        return all_urls

    def getLink(self,page_link):
        page_html=requests.get(page_link,timeout=0.5)
        all_pic_link=re.findall('<a target=\'_blank\' href="(.*?)">',page_html.text,re.S)
        return all_pic_link

    def getPic(self,page_url):
        pic_html=requests.get(page_url,timeout=0.5)
        all_pic_src=re.findall('<img alt=.*?src="(.*?)" /><br />',pic_html.text,re.S)
        return all_pic_src

    #需要提前新建文件夹
    def saveFile(self,pic_src,num):
        pic=requests.get(pic_src,timeout=0.5)
        f=open('pic\\'+str(num)+'.jpg','wb')
        f.write(pic.content)
        f.close



if __name__=='__main__':
    meizituSpider=spider()
    i=1
    url='http://www.meizitu.com/a/list_1_1.html'
    all_link=meizituSpider.getUrl(url,7,89)
    for link in all_link:
        print('准备爬取:'+link)
        all_pic_list=meizituSpider.getLink(link)
        for pic_url in all_pic_list:
            print(pic_url)
            all_pic=meizituSpider.getPic(pic_url)
            for pic_src in all_pic:
                #print(pic_src)
                try:
                    meizituSpider.saveFile(pic_src,i)
                    print(i)
                    i+=1
                except:
                    pass

下面是爬取到的图片。
妹子图
老司机尽情飙车吧。

版权声明:本文为博主原创文章,未经博主允许不得转载。 举报

相关文章推荐

python 3.3 爬虫之爬取图片

今天没事用BeautifulSoup写了一个爬去

Python3 爬虫(三) -- 爬取豆瓣首页图片

序 前面已经完成了简单网页以及伪装浏览器的学习。下面,实现对豆瓣首页所有图片爬取程序,把图片保存到本地一个路径下。 首先,豆瓣首页部分图片展示 这只是截取的一部分。下面给出,整个爬虫程序。 爬虫程...
  • fly_yr
  • fly_yr
  • 2016-05-28 17:55
  • 8186

我是如何成为一名python大咖的?

人生苦短,都说必须python,那么我分享下我是如何从小白成为Python资深开发者的吧。2014年我大学刚毕业..

Python3爬取图片

#coding=utf-8 import urllib.request import redef getHtml(url): page = urllib.request.urlopen(url...

Python3爬虫学习笔记2.2——爬图片-妹子图

有失远迎,今天尝试爬取妹子图妹子图。 让老司机飙车

Python爬虫之——爬取妹子图片

首先声明,本博文为我原创,但是我在看了 崔庆才 博主的文章之后加以自己的实际处理的所得,感谢 崔庆才 博主,写的爬虫文章都好,博主文章地址:http://cuiqingcai.com/3179.htm...

python3 爬虫-图片

最近迷上python爬虫,所以在这里会陆续更新这段时间做的东西。 首先本次是使用python3在一个网页上下载主体部分的图片。参考网页:http://www.jianshu.com/p/696922...

Python3 实现妹子图爬虫

一.项目说明 1.项目介绍 本项目通过使用 Python 实现一个妹子图图片收集爬虫,学习并实践 BeautifulSoup、Request,Urllib 及正则表达式等知识。在项目开发过程中采用...

Python3 实现妹子图爬虫

一.项目说明 1.项目介绍 本项目通过使用 Python 实现一个妹子图图片收集爬虫,学习并实践 BeautifulSoup、Request,Urllib 及正则表达式等知识。在项目开发过程中采用瀑...

Python3 爬虫实战(二)——图片爬虫

上一篇博文http://blog.csdn.net/nju_flepped/article/details/75452517爬取了ONE的每日一句,ONE不仅每日一句都很经典,每天的图片也都很好看。这...
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)