python 文件夹下所有文件_python递归下载文件夹下所有文件

最近想备份网站,但是php下载文件的大小是有大小限制的,而我也懒得装ftp再下载了,就想着暂时弄个二级域名站,然后用python(python3)的requests库直接下载网站根目录下的所有文件以及文件夹。(0-0就是这么任性)

1.安装requests库

pip install requests

2.下载文件夹下所有文件及文件夹

这里需要处理的地方主要是文件夹,这里我们判断出该链接是文件夹时,自动创建文件夹,并递归继续进行操作,否则判断该链接是文件,直接使用requests get方法下载,话不多说,看代码

####春江暮客 www.bobobk.com

import requests

import re

import os

import sys

def help(script):

text = 'python3 %s https://www.bobobk.com ./' % script

print(text)

def get_file(url,path):##文件下载函数

content = requests.get(url)

print("write %s in %s" % (url,path))

filew = open(path+url.split("/")[-1],'wb')

for chunk in content.iter_content(chunk_size=512 * 1024):

if chunk: # filter out keep-alive new chunks

filew.write(chunk)

filew.close()

def get_dir(url,path): #文件夹处理逻辑

content = requests.get(url).text

if "

Index of" in content:

sub_url = re.findall('href="(.*?)" rel="external nofollow" ',content)

print(sub_url)

for i in sub_url:

if "/" in i:

i = i.split("/")[0]

print(i)

if i!="." and i!="..":

if not os.direxists(path+i):

os.mkdir(path+i)

get_dir(url+"/"+i,path+i+"/")

print("url:"+url+"/"+i+"\nurl_path:"+path+i+"/")

else:

get_file(url+"/"+i,path)

else:

get_file(url,path)

if __name__ == '__main__':

if not sys.argv[1]:

help(sys.argv[0])

exit(0)

else:

get_dir(sys.argv[1],"./")

至此,就在本地目录完全还原下载原网站的路径和文件了。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值