爬取摄图网

爬虫步骤详解

以爬取摄图网为例 ‘’https://699pic.com/tupian/so.html‘

1.准备起始url
这个步骤可以说是爬虫的关键
我们先来看 https://699pic.com/tupian/so.html
在这里插入图片描述
我们接下来在搜索框输入 关键词 宝马
拿到相应的url https://699pic.com/tupian/baoma.html

在这里插入图片描述
然后输入美女 得到相应的url https://699pic.com/tupian/meinv.html
这样我们就拿到了起始的url

我们设置title = input(‘请输入标题’)
但是这里有一个问题 title需要转换成拼音 才是正确的url
可以通过from xpinyin import Pinyin解决

– start_url = f’https://699pic.com/tupian/{title}.html’
附上headers ={ ‘user-agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36’,}

2.发送请求,获取响应
response = requests.get(start_url,headers=headers)
#打印观察
printf(response.status_code)
在这里插入图片描述
–状态码为200 说明请求成功

3.解析响应,数据提取
html_str = response.content.decode()
然后我们在网页中找到我们需要的数据
在这里插入图片描述
拿到这个 //img95.699pic.com/photo/50108/2763.jpg_wh300.jpg
放进浏览器看看
在这里插入图片描述
这说明我们接下来只要拿到这个data-original的值就行了。这里我使用正则匹配获取,代码如下:
data_list_1 = re.findall(‘data-original="(.*?)"’, html_str)
此时我们拿到了图片url的集合,打印后发现存在2个问题
1.获取到了我们不需要的数据
2.获取的数据中有重复的
同时,我们还没有给图片命名,于是我采用集合和枚举的方法解决
data_list = list(set(data_list_1))
set利用集合的特性进行去重,list将其转化为列表方便我们遍历处理
for num, img_url in enumerate(data_list):

num值是img_url,在data_list中的下标

 url = 'https:' + img_url

现在我们打印url 观察一下
在这里插入图片描述
我们可以通过状态码来跳过,无法请求的‘假’url

        resp = requests.get(url)
        if resp.status_code != 200:
            continue
        else:
            data = resp.content

4.保存数据
with open(os_path_1 + str(num) + ‘.jpg’, ‘wb’)as f:
f.write(data)
print(f’第{num+1}张图片保存完成’)

在这里插入图片描述在这里插入图片描述
好像有奇怪的东西0…0

完整代码如下:

!/usr/bin/env python

-- coding: utf-8 --

#@author:uuyjp
from xpinyin import Pinyin
import requests, re, os

p = Pinyin()

os_path = os.getcwd() + '/数据/'
if not os.path.exists(os_path):
    os.mkdir(os_path)
while True:
    # 1.准备起始的url地址
    title_1 = input('请输入壁纸标题:')
    os_path_1 = os_path + f'/{title_1}/'
    if not os.path.exists(os_path_1):
        os.mkdir(os_path_1)


    title = p.get_pinyin(title_1).replace('-', '')
    # print(title)
    start_url = f'https://699pic.com/tupian/{title}.html'
    # print(start_url)

    """构造headers"""
    # https/http 请求
    # 1.请求头
    headers = {
        # 伪装成为一个浏览器,人的操作,达到欺骗服务器的目的
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36',
    }
    # 2.发送请求,获取响应
    response = requests.get(start_url, headers=headers)

    #3.解析响应,数据提取
    html_str = response.content.decode()
    # 正则
    data_list_1 = re.findall('data-original="(.*?)"', html_str)
    # 集合
    data_list = list(set(data_list_1))
    # 循环遍历,取出每一个url地址找
    for num, img_url in enumerate(data_list):
        # num值是img_url,在data_list中的下标
        url = 'https:' + img_url
        # print(url)
        try:
            resp = requests.get(url)
            if resp.status_code != 200:
                continue
            else:
                data = resp.content
            # 4.保存数据
            with open(os_path_1 + str(num) + '.jpg', 'wb')as f:
                f.write(data)
            print(f'第{num+1}张图片保存完成')
        except:
            continue
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值