Python20行代码爬取搞笑图片—拯救你的不开心

毫无套路的爬虫,东半球最简单的python爬虫代码

代码如下:

import requests
import lxml
from bs4  import BeautifulSoup

"""
整体思路
1.伪装浏览器构造请求,获取网页内容即HTML源码
2.使用美味汤的强大功能获取图片链接
3.使用文件处理的基本操作将图片下载到本地
"""


count  = 1  #用于记录图片个数
def getResponse(page):  #获取指定URL网页内容
    url = "https://www.qiushibaike.com/imgrank/page/{}/".format(page)
    headers = {"Mozilla":"/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.150 Safari/537.36"}
    #模拟浏览器向服务器发送请求
    response  =requests.get(url,headers).text    #获取网页HTML源码,需进行格式转换
    return response


def getLink(page):  #获取图片链接
    response = getResponse(page)
    soup = BeautifulSoup(response,'lxml')  #创建美味汤对象
    for div in soup.find_all('div',class_="thumb"):
        for img_tag in div.find_all('img'):
    # print(img_tag.get('src'))
    # #可能由于糗事百科网站具有反爬机制,我们得到的图片链接并不是有效地址,需加上响应协议
            img_url = "http:"+img_tag.get('src')
            saveImg(img_url)




def saveImg(img_url):
    global count
    response = requests.get(img_url)
    with open ("./搞笑图片/{}.jpg".format(count),'ab')  as f:  #要先创建文件夹才能将图片写入文件夹,我创建在当前目录下
        f.write(response.content)
        count+=1






if __name__ == "__main__":
    for page in range(1,6): #我们先爬取前五页的图片,可根据不开心程度调整爬取页数!!!
        getLink(page)




## 感觉写的还不错的小伙伴点个赞再走吧,

运行结果如下:在这里插入图片描述
主页还有关于这篇文章的视频,感兴趣的小伙伴可以看一看

这篇文章的内容可能会有一些不足之处,希望大家在评论区多多提出意见,我也会积极改正的,以后我会经常记录自己在实验室打比赛的经历,空闲的时候还会更新一些有趣的算法题(由于不是专业打ACM的,太难的我也不会哈哈哈),如果觉得写得还不错的话,请点个赞吧!谢谢鼓励!

在这里插入图片描述

  • 4
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

XiaXinyuuu

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值