利用Python爬取网页美女图片,哇太多了,我U盘装满了!

最近几天,研究了一下一直很好奇的爬虫算法。这里写一下最近几天的点点心得。下面进入正文:

你可能需要的工作环境:

Python 3.9官网下载

我们这里以sogou作为爬取的对象。

首先我们进入搜狗图片https://pic.sogou.com/,进入壁纸分类(当然只是个例子Q_Q),因为如果需要爬取某网站资料,那么就要初步的了解它…  在这里插入图片描述
进去后就是这个啦,然后F12进入开发人员选项,笔者用的是Chrome。

右键图片>>检查
在这里插入图片描述
发现我们需要的图片src是在img标签下的,于是先试着用 Python 的 requests提取该组件,进而获取imgsrc然后使用urllib.request.urlretrieve逐个下载图片,从而达到批量获取资料的目的,思路好了;

下面应该告诉程序要爬取的urlhttp://pic.sogou.com/pics/recommend?category=%B1%DA%D6%BD,此url来自进入分类后的地址栏。明白了url地址我们来开始愉快的代码时间吧:

在写这段爬虫程序的时候,最好要逐步调试,确保我们的每一步操作正确,这也是程序猿应该有的好习惯。下面我们来剖析该url指向的网页。

import requests
import urllib
from bs4 import BeautifulSoup
res = requests.get(
  • 6
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值