手把手教你用Python网络爬虫获取壁纸图片

390 篇文章 2 订阅
276 篇文章 4 订阅

前言

想要电脑换个壁纸时都特别苦恼,因为百度搜到那些壁纸也就是分辨率达到了壁纸的水准。可是里面图片的质量嘛,实在是不忍直视…。而有些4K高清的壁纸大多是有版权的 ,这就使我们想要获取高清的图片,变得非常的困难。

wallhaven 网站是无版权的4K壁纸 ,而且主题丰富(创意、摄影、人物、动漫、绘画、视觉),今天教大家如何去批量的去下载wallhaven4K原图。
在这里插入图片描述

项目目标

获取对应的4K壁纸,并批量下载保存在文件夹。

涉及的库和网站

软件:PyCharm

需要用到的库:requests、lxml、fake_useragent、time

先列出网址,如下所示:

https://wallhaven.cc/search?q=id%3A65348&page={}

网址city=%E5%B9%BF%E5%B7%9E指的是广州这个城市、pn指的是页数。

项目分析

滑动鼠标观察下一页的网址的变化:

 1. https://wallhaven.cc/search?q=id%3A65348&page=1
 2. https://wallhaven.cc/search?q=id%3A65348&page=2
 3. https://wallhaven.cc/search?q=id%3A65348&page=3

滑动下一页时,每增加一页page自增加1,用{}代替变换的变量,再用for循环遍历这网址,实现多个网址请求。

具体实现

1、定义一个class类继承object,定义init方法继承self,主函数main继承self。导入需要的库和网址。

import requests
from lxml import etree
from fake_useragent import UserAgent
import time

class  wallhaven(object):
    def __init__(self):
      self.url = "https://wallhaven.cc/search?q=id%3A65348&page={}"

    def main(self):
        pass

if __name__ == '__main__':
    imageSpider =  wallhaven()
    imageSpider.main()

2、fake_useragent模块实现随机产生UserAgent。

 ua = UserAgent(verify_ssl=False)
        for i in range(1, 50):
            self.headers = {
                'User-Agent': ua.random,
            }

3、for循环实现多网址访问。

startPage = int(input("起始页:"))
endPage = int(input("终止页:"))
for page in range(startPage, endPage + 1):
    url = self.url.format(page)

4、发送请求 获取响应。

‘’‘发送请求 获取响应’‘’

 def get_page(self, url):
        res = requests.get(url=url, headers=self.headers)
        html = res.content.decode("utf-8")
        return html

5、解析一级页面,得到二级页面的 href 地址。

 def parse_page(self, html):
    parse_html = etree.HTML(html)
    image_src_list = parse_html.xpath('//figure//a/@href')

6、遍历二级页面网址,发生请求、解析数据。找到相对于的图片地址。

html1 = self.get_page(i)  # 二级页面发生请求
parse_html1 = etree.HTML(html1)
# print(parse_html1)
filename = parse_html1.xpath('//div[@class="scrollbox"]//img/@src')
# print(filename)

7、获取到的图片地址,发生请求,保存。

# 图片地址发生请求
for img in filename:
    dirname = "./图/" + img[32:] '''可修改图片保存的地址'''
    print(dirname)
    html2 = requests.get(url=img, headers=self.headers).content

    with open(dirname, 'wb') as f:
        f.write(html2)
        print("%s下载成功" % filename)

8、调用方法,实现功能。

html = self.get_page(url)
self.parse_page(html)
优化:设置延时。(防止ip被封)。

time.sleep(1.4) """时间延时"""

效果展示

1、点击绿色按钮运行,将结果显示在控制台,如下图所示。输起始页和终止页,回车。
在这里插入图片描述
2、图片下载成功控制台输出。
在这里插入图片描述
3、批量保存。
在这里插入图片描述
4、验证4K。(点击图片打开属性)
在这里插入图片描述

小结

1、不建议抓取太多数据,容易对服务器造成负载,浅尝辄止即可。

2、本文基于Python网络爬虫,利用爬虫库,获取wallhaven4K壁纸。

3、4K的壁纸下载时可能会有点缓慢,请大家耐心的等待。如果图片的地址不一样,需要自己修改一下图片的保存的地址。

4、大家也可以在wallhaven网址上,寻找自己喜欢图片,按照操作步骤,自己尝试去做。自己实现的时候,总会有各种各样的问题,切勿眼高手低,勤动手,才可以理解的更加深刻。

5、如果本文源码的小伙伴,请微信扫描下方CSDN官方认证二维码免费领取进行获取,觉得不错,记得给个Star噢~

在这里插入图片描述

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值