python--下载文件并将文件放到指定文件夹

import os  #导入os库
import urllib  #导入urllib库

def file_downloand():  #######文件下载
    if os.path.exists("文件路径") == False:  # 判断是否存在文件

        # 文件url
        image_url = '(需要下载文件所在位置的网页),例如:https://www....'

        # 文件基准路径
        basedir = os.path.abspath(os.path.dirname(__file__))
        # 下载到服务器的地址
        file_path = os.path.join(basedir, '(将成功下载后的文件放到指定位置),例如:D:/...')

        try:
            # 如果没有这个path则直接创建
            if not os.path.exists(file_path):
                os.makedirs(file_path)
            file_suffix = os.path.splitext(image_url)[1]
            filename = '{}{}'.format(file_path, file_suffix)  # 拼接文件名。
            urllib.request.urlretrieve(image_url, filename=filename)
            print("成功下载文件")
        except IOError as exception_first:  #设置抛出异常
            print(1, exception_first)

        except Exception as exception_second:  #设置抛出异常
            print(2, exception_second)
    else:
        print("文件已经存在!")
  • 1
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
可以使用 Python 中的 requests 和 BeautifulSoup 库来实现爬取网页图片并放到指定文件夹的操作。具体步骤如下: 1. 使用 requests 库获取需要爬取的网页内容,并将其转换为 BeautifulSoup 对象。 2. 使用 BeautifulSoup 库解析 HTML 文档,找到所有需要爬取的图片链接。 3. 遍历所有图片链接,使用 requests 库下载图片,并保存到指定文件夹中。 下面是一个简单的示例代码,仅供参考: ```python import os import requests from bs4 import BeautifulSoup # 定义需要爬取的网页 URL 和保存图片的文件夹路径 url = "https://www.example.com" save_dir = "/path/to/save/folder" # 使用 requests 库获取网页内容,并将其转换为 BeautifulSoup 对象 response = requests.get(url) soup = BeautifulSoup(response.content, "html.parser") # 使用 BeautifulSoup 库解析 HTML 文档,找到所有需要爬取的图片链接 img_tags = soup.find_all("img") img_urls = [img["src"] for img in img_tags] # 遍历所有图片链接,使用 requests 库下载图片,并保存到指定文件夹中 for img_url in img_urls: img_name = img_url.split("/")[-1] img_path = os.path.join(save_dir, img_name) img_response = requests.get(img_url) with open(img_path, "wb") as f: f.write(img_response.content) print(f"Saved image {img_path}") ``` 在上面的代码中,我们使用了 os 模块来拼接图片保存的路径,使用 requests 库来下载图片,并使用 with 语句来保证文件操作的安全性。需要注意的是,如果网页中包含了相对路径的图片链接,需要根据需要手动拼接完整的 URL。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

风里唤呼声

请多多关照,谢谢

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值