使用python爬取图片

使⽤ requests 库来获取⽹⻚内容,并⽤ BeautifulSoup 来解析HTML,找到所有图⽚的URL。然后,可以⽤ requests 再次下载这些图⽚并将它们保存到本地。

以下是⼀个简单的图⽚下载器的⽰例代码。这个脚本会下载指定⽹⻚上的所有图⽚到⼀个名为downloaded_images 的本地⽂件夹中。请确保在运⾏脚本之前已经创建了这个⽂件夹,或者修改脚本以创建它。

import requests
from bs4 import BeautifulSoup # requests 和 BeautifulSoup 为第三方库,需要安装 ,安装命令:  pip install requests BeautifulSoup
import os

#目标网页地址
url='https://kkmzt.com/'

#发生HTTP GET请求
response = requests.get(url)

# 确保请求成功
if response.status_code == 200:
    #使用 BeautifulSoup 解析网页内容
    soup = BeautifulSoup(response.text,'html.parser')
    print(soup)
    # 创建保存图⽚的⽬录
    folder_path = 'downloaded_images'
    if not os.path.exists(folder_path):
        os.makedirs(folder_path)
    # 查找所有图⽚标签
    for img in soup.find_all('img'):
        img_url = img.get('src')
        # 确保img_url不为空且为完整的URL
        if img_url and img_url.startswith('http'):
            img_data = requests.get(img_url).content
            img_name = os.path.join(folder_path, img_url.split('/')[-1])
            # 写⼊图⽚数据到⽂件
            with open(img_name, 'wb') as file:
                file.write(img_data)
            print(f'Downloaded {img_name}')
else:
    print('请求失败,状态码:',response.status_code)

这个脚本图⽚的URL是完整的(即,以 http 或 https 开始)。有些⽹站可能使⽤相对路径来指向图⽚,在这种情况下,需要修改脚本来构建完整的URL。

此外,由于⽹络请求的性质,尝试下载⼤量图⽚或从响应时间较⻓的服务器下载时,脚本可能会运⾏较慢。在本地环境中运⾏上述脚本时,需替换 url 变量的值为你想要下载图⽚的⽹⻚地址,然后运⾏脚本。

如果⽹⻚上的图⽚URL是完整的,脚本将会下载所有找到的图⽚到指定的⽂件夹中。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值