转载:爬虫学习

转载:https://zhuanlan.zhihu.com/p/57780822

在大佬的教程下一些自己的理解.

主页网址唯一图库
直接点到末页,852页。。

右键点击一个图片链接,选择审查元素


这里的img是就封面,如果只抓取封面的话,到这就可以了,但是我们取的是所有图片,所以这里我们获取的是这个详情页的a链接:http://www.mmonly.cc/mmtp/xgmn/181603.html,这就是第一个图集的链接,然后每页有24个图集。一共852页,我们点击下一页查看下网址变化,http://www.mmonly.cc/mmtp/list_9_2.html,页数变成2,所以我们这里直接循环,然后获取每一页上的图集a链接:

import requests
from lxml import html
for page in range(1,852):
    url='http://www.mmonly.cc/mmtp/list_9_%s.html'%page
    response=requests.get(url,verify=False).text
    selector=html.fromstring(response)
    imgEle=selector.xpath('//div[@class="ABox"]/a')
    for img in imgEle:
        imgUrl=img.xpath('@href')[0]
        print(imgUrl)

这样,我们就获取到了所有的主要链接,每页24个,2w+个。
这里用的是xpath:https://www.jianshu.com/p/85a3004b5c06 

xpath用于获取匹配的元素。/  为子目录


然后我们点开一个链接,看一下详情页,发现网址没有变化,点下一页,同样的是网址后面加了页数:http://www.mmonly.cc/mmtp/xgmn/181603_2.html,有点区别的地方就是我们不知道每个图集有多少页,所以这里再单独获取一下,同样的右击审查元素。

 

for img in imgEle:
        imgUrl=img.xpath('@href')[0]
        response=requests.get(imgUrl,verify=False).text
        selector = html.fromstring(response)
        pageEle = selector.xpath('//div[@class="wrapper clearfix imgtitle"]/h1/span/span[2]/text()')[0]
        print(pageEle)

这里我们如愿获取到15。
之后就是访问每一页,获取高清大图了,以及图片的保存。urllib.request.urlretrieve(url,path)简单下载图片,参数为图片链接和下载的本地路径。
完整代码如下:(这里我图片命名是第几页第几个图集的第几张图片,所以看着有些乱)

urllib.request.urlretrieve:将远程数据下载到本地。

https://blog.csdn.net/u012424313/article/details/82222188

import requests
from lxml import html
import os
import urllib
import time

img_save_path = os.getcwd()+"\meizi"

for page in range(1,2):
    url='http://www.mmonly.cc/mmtp/list_9_%s.html'%page
    response=requests.get(url,verify=False).text
    selector=html.fromstring(response)
    imgEle=selector.xpath('//div[@class="ABox"]/a')
    for index, img in enumerate(imgEle):
        imgUrl = img.xpath('@href')[0]
        response = requests.get(imgUrl, verify=False).text
        selector = html.fromstring(response)
        pageEle = selector.xpath('//div[@class="wrapper clearfix imgtitle"]/h1/span/span[2]/text()')[0]
        # print(pageEle)
        imgE = selector.xpath('//a[@class="down-btn"]/@href')[0]

        #creat file folder for save image
        if not os.path.exists(img_save_path):
            os.makedirs(img_save_path)

        #the name of image
        imgName = '%s_%s_1.jpg' % (page, str(index + 1))
        coverPath = os.path.join(img_save_path,imgName)

        #download the image by url
        urllib.request.urlretrieve(imgE, coverPath)
        for page_2 in range(2, int(pageEle) + 1):
            url = imgUrl.replace('.html', '_%s.html' % str(page_2))
            response = requests.get(url).text
            selector = html.fromstring(response)
            imgEle = selector.xpath('//a[@class="down-btn"]/@href')[0]
            # print(imgEle)
            imgName = '%s_%s_%s.jpg' % (page, str(index + 1), page_2)
            coverPath = os.path.join(img_save_path,imgName)
            urllib.request.urlretrieve(imgEle, coverPath)
        time.sleep(2)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值