python makedirs_Python os.makedirs()方法

Python os.makedirs()方法

概述

os.makedirs() 方法用于递归创建目录。像 mkdir(), 但创建的所有intermediate-level文件夹需要包含子目录。

语法

makedirs()方法语法格式如下:

os.makedirs(path,mode=0o777)

参数 path -- 需要递归创建的目录。

mode -- 权限模式。

返回值

该方法没有返回值。

实例

以下实例演示了 makedirs() 方法的使用:

#!/usr/bin/python

# -*- coding: UTF-8 -*-

import os, sys

# 创建的目录

path = "/tmp/home/monthly/daily"

os.makedirs( path, 0755 );

print "路径被创建"

执行以上程序输出结果为:

路径被创建

序号

相关信息

3

os.chflags()

设置路径的标记为数字标记

6

9

10

os.dup2()

将一个文件描述符复制到另一个

11

os.fchdir()

通过文件描述符改变当前工作目录

12

os.fchmod()

改变一个文件的访问权限

13

15

os.fdopen()

通过文件描述符创建一个文件对象,并返回这个文件对象

16

os.fpathconf()

返回一个打开的文件的系统配置信息

17

os.fstat()

返回文件描述符的状态

18

os.fstatvfs()

返回包含文件描述符的文件的文件系统的信息

19

os.fsync()

强制将文件描述符为的文件写入硬盘

20

22

os.getcwdu()

返回一个当前工作目录的Unicode对象

23

os.isatty()

判断文件描述符是否打开

24

28

os.listdir()

返回path指定的文件夹包含的文件或文件夹的名字的列表

29

os.lseek()

设置文件描述符当前位置

30

os.lstat()

像stat(),但是没有软链接

31

os.major()

从原始的设备号中提取设备major号码

32

os.makedev()

以major和minor设备号组成一个原始设备号

33

os.minor()

从原始的设备号中提取设备minor号码

36

os.mknod()

创建一个文件系统节点

38

39

os.pathconf()

返回相关文件的系统配置信息

42

os.read()

从文件描述符中读取最多n个字节

43

44

os.remove()

删除路径为path的文件

47

48

49

os.stat()

获取指定的路径的信息

50

os.stat_float_times()

决定stat_result是否以float对象显示时间戳

51

os.statvfs()

获取指定路径的文件系统统计信息

55

os.tempnam()

返回唯一的路径名用于创建临时文件

56

os.tmpfile()

返回一个打开的模式为(w+b)的文件对象

57

os.tmpnam()

为创建一个临时文件返回一个唯一的路径

60

os.utime()

返回指定的文件的访问和修改的时间

61

os.walk()

输出在文件夹中的文件名通过在树中游走

62

os.write()

写入字符串到文件描述符中

本文网址:http://www.santii.com/python/python-os_makedirs.html

python爬虫与项目实战,网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。 随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战。搜索引擎(Search Engine),例如传统的通用搜索引擎AltaVista,Yahoo!和Google等,作为一个辅助人们检索信息的工具成为用户访问万维网的入口和指南。但是,这些通用性搜索引擎也存在着一定的局限性,如: (1)不同领域、不同背景的用户往往具有不同的检索目的和需求,通用搜索引擎所返回的结果包含大量用户不关心的网页。 (2)通用搜索引擎的目标是尽可能大的网络覆盖率,有限的搜索引擎服务器资源与无限的网络数据资源之间的矛盾将进一步加深。 (3)万维网数据形式的丰富和网络技术的不断发展,图片、数据库、音频、视频多媒体等不同数据大量出现,通用搜索引擎往往对这些信息含量密集且具有一定结构的数据无能为力,不能很好地发现和获取。 (4)通用搜索引擎大多提供基于关键字的检索,难以支持根据语义信息提出的查询。 网络爬虫 为了解决上述问题,定向抓取相关网页资源的聚焦爬虫应运而生。聚焦爬虫是一个自动下载网页的程序,它根据既定的抓取目标,有选择的访问万维网上的网页与相关的链接,获取所需要的信息。与通用爬虫(general purpose web crawler)不同,聚焦爬虫并不追求大的覆盖,而将目标定为抓取与某一特定主题内容相关的网页,为面向主题的用户查询准备数据资源。 传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值