python五十行代码获取很多很多个好看图片

在这里插入图片描述
请添加图片描述
下载一个图片网址的主要函数,请求头的话可以根据不同的网址跟换相应的Cookie 啥的,截取文件名称可能也许要对应的修改下。

# 下载图片
def download_img(img_url):
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    r = requests.get(img_url, headers=headers, stream=True)
    if r.status_code == 200:
        img_name = img_url.split('/').pop()[-12:]  # 截取图片文件名
        print(img_name)
        with open(path + img_name, 'wb') as f:
            f.write(r.content)
        return True

完整代码

·mport xlwt
import requests
from bs4 import BeautifulSoup
# 下载图片
def download_img(img_url):
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
    }
    r = requests.get(img_url, headers=headers, stream=True)
    if r.status_code == 200:
        img_name = img_url.split('/').pop()[-12:]  # 截取图片文件名
        print(img_name)
        with open(img_name, 'wb') as f:
            f.write(r.content)
        return True


def getImgUrl(url):
    headers = {
        "Accept": 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
        "Accept-Encoding": 'gzip, deflate',
        "Accept-Language": 'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6',
        # "Cache-Control": 'max-age=0',
        "Connection": 'keep-alive',
        "Cookie": '__yjs_duid=1_1ded8ba9b536c5b42796529239319dd21635240082530; Hm_lvt_14b14198b6e26157b7eba06b390ab763=1635240084,1635302667; xygkqecookieclassrecord=%2C7%2C; Hm_lpvt_14b14198b6e26157b7eba06b390ab763=1635303536',
        "Host": 'www.netbian.com',
        "Referer": 'http://www.netbian.com/meinv/',
        "Upgrade-Insecure-Requests": '1',
        "User-Agent": 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/95.0.4638.54 Safari/537.36 Edg/95.0.1020.30',
    }
    # url = 'http://www.netbian.com/meinv/'
    response = requests.get(url, headers=headers).content
    # print(response, '========')
    soup = BeautifulSoup(response, "lxml")
    # 图片列表
    imgUrlList = soup.select('.list > ul > li > a > img')
    for i in imgUrlList:
        imgUrl = i['src']
        ret = download_img(imgUrl)
        if not ret:
            print(imgUrl + "下载失败")
        print(imgUrl + "---------下载成功")


if __name__ == '__main__':
    # 下载要的图片
    for i in range(30, 100):
        imgUrl = 'http://www.netbian.com/meinv/index_' + str(i) + '.htm'
        getImgUrl(imgUrl)

在这里插入图片描述

做个壁纸库杠杠的!!!

  • 7
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

codernmx

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值