爬取猫咪图片

爬取猫咪图片

本文猫咪照片爬取网站来自http://placekitten.com

想实现自动化批量下载?没关系,请看博主的另外一篇爬取猫咪图片——自动化批量下载

本项目实现了窗口化自动爬取网站猫咪照片,用户只需要输入所需图片尺寸,选择文件夹,即可自动下载相应尺寸的萌萌哒猫咪图片!!!

废话少说,先看效果图:

1.打开程序

在这里插入图片描述
2.输入尺寸

在这里插入图片描述
3.选择文件夹

在这里插入图片描述
4.下载图片

在这里插入图片描述
5.结果<

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用Pycharm爬取猫的图片的完整代码: ```python import requests from bs4 import BeautifulSoup import os # 设置需要爬取的页数和图片类型 page_num = 10 image_type = "jpg" # 设置图片保存路径 save_path = "./cat_images/" # 创建保存图片的文件夹 if not os.path.exists(save_path): os.makedirs(save_path) # 循环爬取每一页的图片 for i in range(1, page_num + 1): # 构建URL url = "https://www.pexels.com/search/cat/?page=" + str(i) + "&format=js&seed=2021-08-27%2003%3A57%3A03%20%2B0200" # 发送请求 response = requests.get(url) # 解析响应 soup = BeautifulSoup(response.content, "html.parser") # 查找所有的图片 images = soup.find_all("img") # 循环下载每张图片 for j, image in enumerate(images): # 获取图片的URL image_url = image["src"] # 判断图片的类型是否符合要求 if image_url.endswith(image_type): # 发送请求下载图片 image_response = requests.get(image_url) # 保存图片到本地 with open(save_path + str(i) + "_" + str(j) + "." + image_type, "wb") as f: f.write(image_response.content) print("已下载第", i, "页第", j, "张图片") ``` 说明: 1. 首先需要导入`requests`、`BeautifulSoup`和`os`模块。 2. 然后设置需要爬取的页数和图片类型,以及保存图片的路径。 3. 创建保存图片的文件夹。 4. 循环爬取每一页的图片,构建URL、发送请求、解析响应、查找所有的图片。 5. 循环下载每张图片,获取图片的URL、判断图片的类型是否符合要求、发送请求下载图片、保存图片到本地。 6. 最后输出已下载的图片数量。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值