趁着这个网站还在,赶紧用Python下载了所有壁纸

嗨嗨,你们好

又来给你们分享个有意思的网站了

再一次带你们采集壁纸

之前老有很多高质量的网站都不见了,趁着这个还在,赶紧多保存点

请添加图片描述

环境准备

在这里插入图片描述

1.环境配置

安装一个Python和pycharm就好了,没有的话,私信我~

2.模块使用

requests    # 数据请求
parsel   # 解析模块 (提取数据)

这两个模块没有安装的话,先安装一下,win+R 输入cmd 按回车弹出命令提示符窗口,输入 pip install 加上模块名即可 , 如:pip install requests 然后按回车即可安装成功,详细教程见置顶文章,我有详细介绍。

3.如何配置pycharm里面的python解释器?

  1. 选择file(文件) >>> setting(设置) >>> Project(项目) >>> python
    interpreter(python解释器)
  2. 点击齿轮, 选择add
  3. 添加python安装路径

4.pycharm如何安装插件?

  1. 选择file(文件) >>> setting(设置) >>> Plugins(插件)
  2. 点击 Marketplace 输入想要安装的插件名字 比如:翻译插件 输入 translation / 汉化插件 输入 Chinese
  3. 选择相应的插件点击 install(安装) 即可;
  4. 安装成功之后 是会弹出 重启pycharm的选项 点击确定, 重启即可生效;

5.基本流程

基本上所有的爬虫都是这个步骤

一. 数据来源分析

抓取网站是什么?想要获取网站什么样数据内容?比如爬取图片,从一张图片去分析,通过开发者工具进行抓包分析, 对比我们想要图片url地址一些参数;

二. 代码实现步骤:

  1. 发送请求, 对于分析得到url地址发送请求; 请求网址 请求方式 请求头参数 >>> 伪装
    可以把python代码伪装成浏览器(客户端)发送请求; 如果不进行伪装会有什么后果 >>> 不会给你返回你想要数据;
  2. 获取数据,获取response服务器返回响应数据;
  3. 解析数据,提取我们想要数据内容,图片url地址以及图片标题;
  4. 保存数据,把图片数据保存到本地;

代码解析

开始展示代码吧,不然大家想打我了~

在这里插入图片描述

1、模块导入

首先把我们需要用的模块导入进去,导入数据请求模块和数据解析模块,导入模块没有使用, 灰色待机状态。

import requests  
import parsel  

2、发送请求

headers 请求头参数, 可以开发者工具里面直接进行复制, 其次headers字典数据类型, 键值对;
user-agent: 用户代理 表示浏览器基本身份标识;
cookie: 用户信息, 检测用户是否有登陆账号;

for page in range(2, 11):
    url = f'因为地址敏感我放在评论区置顶了/woman/{page}.html'
    headers = {
        'cookie': 't=f2cf055ce8713058cbfdbd1561c38e86; r=1281; Hm_lvt_86200d30c9967d7eda64933a74748bac=1645625923,1646892448; Hm_lpvt_86200d30c9967d7eda64933a74748bac=1646894465',
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.51 Safari/537.36'
    }
    response = requests.get(url=url, headers=headers)   #  <Response [200]> 返回响应对象 200状态码标识请求成功

3、获取数据

获取服务器返回数据内容, 获取响应对象文本数据/字符串数据。

返回数据内容和我们在开发者工具里面看到不一样,说明你被服务器识别出来是你爬虫程序,所以他没有给你返回数据。

print(response.text)

4.解析数据

css选择器 xpath re 三种解析方式都可以去用选择最适合

css选择器: 根据标签属性提取数据内容;

对于获取response.text 进行数据类型转换 转成 selector 对象

attr() 属性选择器 .egeli_pic_li .egeli_pic_dl dd a img 都是定位标签, 告诉它是哪一个标签

img::attr(src) 取img标签里面的src属性数据

getall() 获取所有标签内容数据 返回列表数据类型

python学习交流Q裙:770699889 ###
 selector = parsel.Selector(response.text)
 src = selector.css('.egeli_pic_li .egeli_pic_dl dd a img::attr(src)').getall()
 alt = selector.css('.egeli_pic_li .egeli_pic_dl dd a img::attr(alt)').getall()
 for img_url, title in zip(src, alt):
     img_url = img_url.replace('edpic_360_360', 'edpic_source')

5.保存数据

img_content = requests.get(url=img_url, headers=headers).content  # 获取二进制数据内容
with open('img\\' + title + '.jpg', mode='wb') as f:
    f.write(img_content)
print(img_url, title)

好啦,今天的分享到这里就结束了 ~

如果需要更多视频学习的可以在b站搜索 :Python小圆

对文章有问题的,或者有其他关于python的问题,可以在评论区留言或者私信我哦
觉得我分享的文章不错的话,可以关注一下我,或者给文章点赞(/≧▽≦)/

请添加图片描述

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值