Python 爬虫的小案例(男性福利)

成果

在这里插入图片描述

源码

import os
import random
import ssl
import time

ssl._create_default_https_context = ssl._create_unverified_context
import urllib.request
import requests
from bs4 import BeautifulSoup


def getImg():
    # 抓取1到100页的图片
    for k in range(1, 100):
    
      	# 循环拼接URL
        url = requests.get("https://www.buxiuse.com/?page=" + str(k))  # 爬取网站url
        
        # 获取网站数据
        html = url.text
        
        # 打印输出网站数据
        # print(html)
        
        # 解析HTML
        soup = BeautifulSoup(html, "html.parser")
        
        # 获取所有img标签
        girl = soup.find_all('img')
        
        # 设置图片的编号
        x = 0
        
        # 遍历抓到的图片标签
        for i in girl:
        
            # 获取src路径  下载地址
            src = i.get('src')
            
            # 打印图片的src
            # print(src)
            
            # 保存位置
            savePath = '/Users/apple/Downloads/picture/第' + str(k) + '页面'
            
            # 如果文件夹不存在则创建
            if not os.path.exists(savePath):
                os.makedirs(savePath)
                
            # 下载
            urllib.request.urlretrieve(src, savePath + "/" + "%s.jpg" % x)
            
            # 图片编号+1
            x = x + 1

        # 爬完一页提醒
        print('完成第'+str(k)+'页')

        # 设置爬虫睡眠时间  以防封杀  模拟人的操作
        # 而且最重要的是避免恶意攻击
        print('爬虫睡眠')
        time.sleep(random.random() * 3)
        print('爬虫苏醒,开始下一次爬取')
        print("=====================================================================")

if __name__ == '__main__':
    # 调用函数
    getImg()

  • 4
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值