一 time模块
在Python中,通常有这几种方式来表示时间:
时间戳(timestamp):通常来说,时间戳表示的是从1970年1月1日00:00:00开始按秒计算的偏移量。我们运行“type(time.time())”,返回的是float类型。
格式化的时间字符串(Format String)
结构化的时间(struct_time):struct_time元组共有9个元素共九个元素:(年,月,日,时,分,秒,一年中第几周,一年中第几天,夏令时)
1 importtime2 #--------------------------我们先以当前时间为准,让大家快速认识三种形式的时间
3 print(time.time()) #时间戳:1487130156.419527
4 print(time.strftime("%Y-%m-%d %X")) #格式化的时间字符串:'2017-02-15 11:40:53'
5
6 print(time.localtime()) #本地时区的struct_time
7 print(time.gmtime()) #UTC时区的struct_time
其中计算机认识的时间只能是'时间戳'格式,而程序员可处理的或者说人类能看懂的时间有: '格式化的时间字符串','结构化的时间' ,于是有了下图的转换关系
1 #--------------------------按图1转换时间
2 #localtime([secs])
3 #将一个时间戳转换为当前时区的struct_time。secs参数未提供,则以当前时间为准。
4 time.localtime()5 time.localtime(1473525444.037215)6
7 #gmtime([secs]) 和localtime()方法类似,gmtime()方法是将一个时间戳转换为UTC时区(0时区)的struct_time。
8
9 #mktime(t) : 将一个struct_time转化为时间戳。
10 print(time.mktime(time.localtime()))#1473525749.0
11
12
13 #strftime(format[, t]) : 把一个代表时间的元组或者struct_time(如由time.localtime()和
14 #time.gmtime()返回)转化为格式化的时间字符串。如果t未指定,将传入time.localtime()。如果元组中任何一个
15 #元素越界,ValueError的错误将会被抛出。
16 print(time.strftime("%Y-%m-%d %X", time.localtime()))#2016-09-11 00:49:56
17
18 #time.strptime(string[, format])
19 #把一个格式化时间字符串转化为struct_time。实际上它和strftime()是逆操作。
20 print(time.strptime('2011-05-05 16:37:06', '%Y-%m-%d %X'))21 #time.struct_time(tm_year=2011, tm_mon=5, tm_mday=5, tm_hour=16, tm_min=37, tm_sec=6,
22 #tm_wday=3, tm_yday=125, tm_isdst=-1)
23 #在这个函数中,format默认为:"%a %b %d %H:%M:%S %Y"。
1 #--------------------------按图2转换时间
2 #asctime([t]) : 把一个表示时间的元组或者struct_time表示为这种形式:'Sun Jun 20 23:21:05 1993'。
3 #如果没有参数,将会将time.localtime()作为参数传入。
4 print(time.asctime())#Sun Sep 11 00:43:43 2016
5
6 #ctime([secs]) : 把一个时间戳(按秒计算的浮点数)转化为time.asctime()的形式。如果参数未给或者为
7 #None的时候,将会默认time.time()为参数。它的作用相当于time.asctime(time.localtime(secs))。
8 print(time.ctime()) #Sun Sep 11 00:46:38 2016
9 print(time.ctime(time.time())) #Sun Sep 11 00:46:38 2016
1 #--------------------------其他用法
2 #sleep(secs)
3 #线程推迟指定的时间运行,单位为秒。
二 random模块
1 importrandom2
3 print(random.random())#(0,1)----float 大于0且小于1之间的小数
4
5 print(random.randint(1,3)) #[1,3] 大于等于1且小于等于3之间的整数
6
7 print(random.randrange(1,3)) #[1,3) 大于等于1且小于3之间的整数
8
9 print(random.choice([1,'23',[4,5]]))#1或者23或者[4,5]
10
11 print(random.sample([1,'23',[4,5]],2))#列表元素任意2个组合
12
13 print(random.uniform(1,3))#大于1小于3的小数,如1.927109612082716
14
15
16 item=[1,3,5,7,9]17 random.shuffle(item) #打乱item的顺序,相当于"洗牌"18 print(item)
importrandomdefv_code():
code= ''
for i in range(5):
num=random.randint(0,9)
alf=chr(random.randint(65,90))
add=random.choice([num,alf])
code+=str(add)returncodeprint(v_code())
生成随机验证码
三 os模块
os模块是与操作系统交互的一个接口
os.getcwd() 获取当前工作目录,即当前python脚本工作的目录路径
os.chdir("dirname") 改变当前脚本工作目录;相当于shell下cd
os.curdir 返回当前目录: ('.')
os.pardir 获取当前目录的父目录字符串名:('..')
os.makedirs('dirname1/dirname2') 可生成多层递归目录
os.removedirs('dirname1') 若目录为空,则删除,并递归到上一级目录,如若也为空,则删除,依此类推
os.mkdir('dirname') 生成单级目录;相当于shell中mkdir dirname
os.rmdir('dirname') 删除单级空目录,若目录不为空则无法删除,报错;相当于shell中rmdir dirname
os.listdir('dirname') 列出指定目录下的所有文件和子目录,包括隐藏文件,并以列表方式打印
os.remove() 删除一个文件
os.rename("oldname","newname") 重命名文件/目录
os.stat('path/filename') 获取文件/目录信息
os.sep 输出操作系统特定的路径分隔符,win下为"\\",Linux下为"/"os.linesep 输出当前平台使用的行终止符,win下为"\t\n",Linux下为"\n"os.pathsep 输出用于分割文件路径的字符串 win下为;,Linux下为:
os.name 输出字符串指示当前使用平台。win->'nt'; Linux->'posix'os.system("bash command") 运行shell命令,直接显示
os.environ 获取系统环境变量
os.path.abspath(path) 返回path规范化的绝对路径
os.path.split(path) 将path分割成目录和文件名二元组返回
os.path.dirname(path) 返回path的目录。其实就是os.path.split(path)的第一个元素
os.path.basename(path) 返回path最后的文件名。如何path以/或\结尾,那么就会返回空值。即os.path.split(path)的第二个元素
os.path.exists(path) 如果path存在,返回True;如果path不存在,返回False
os.path.isabs(path) 如果path是绝对路径,返回True
os.path.isfile(path) 如果path是一个存在的文件,返回True。否则返回False
os.path.isdir(path) 如果path是一个存在的目录,则返回True。否则返回False
os.path.join(path1[, path2[, ...]]) 将多个路径组合后返回,第一个绝对路径之前的参数将被忽略
os.path.getatime(path) 返回path所指向的文件或者目录的最后存取时间
os.path.getmtime(path) 返回path所指向的文件或者目录的最后修改时间
os.path.getsize(path) 返回path的大小
View Code
在Linux和Mac平台上,该函数会原样返回path,在windows平台上会将路径中所有字符转换为小写,并将所有斜杠转换为饭斜杠。>>> os.path.normcase('c:/windows\\system32\\')'c:\\windows\\system32\\'规范化路径,如..和/
>>> os.path.normpath('c://windows\\System32\\../Temp/')'c:\\windows\\Temp'
>>> a='/Users/jieli/test1/\\\a1/\\\\aa.py/../..'
>>> print(os.path.normpath(a))/Users/jieli/test1
os路径处理#方式一:推荐使用
importos#具体应用
importos,sys
possible_topdir=os.path.normpath(os.path.join(
os.path.abspath(__file__),
os.pardir,#上一级
os.pardir,
os.pardir
))
sys.path.insert(0,possible_topdir)#方式二:不推荐使用
os.path.dirname(os.path.dirname(os.path.dirname(os.path.abspath(__file__))))
四 sys模块
1 sys.argv 命令行参数List,第一个元素是程序本身路径2 sys.exit(n) 退出程序,正常退出时exit(0)3 sys.version 获取Python解释程序的版本信息4 sys.maxint 最大的Int值5 sys.path 返回模块的搜索路径,初始化时使用PYTHONPATH环境变量的值6 sys.platform 返回操作系统平台名称
importsys,timefor i in range(50):
sys.stdout.write('%s\r' %('#'*i))
sys.stdout.flush()
time.sleep(0.1)'''注意:在pycharm中执行无效,请到命令行中以脚本的方式执行'''
进度条
五 shutil模块
高级的 文件、文件夹、压缩包 处理模块
shutil.copyfileobj(fsrc, fdst[, length])
将文件内容拷贝到另一个文件中
1 importshutil2
3 shutil.copyfileobj(open('old.xml','r'), open('new.xml', 'w'))
shutil.copyfile(src, dst)
拷贝文件
1 shutil.copyfile('f1.log', 'f2.log') #目标文件无需存在
shutil.copymode(src, dst)
仅拷贝权限。内容、组、用户均不变
1 shutil.copymode('f1.log', 'f2.log') #目标文件必须存在
shutil.copystat(src, dst)
仅拷贝状态的信息,包括:mode bits, atime, mtime, flags
1 shutil.copystat('f1.log', 'f2.log') #目标文件必须存在
shutil.copy(src, dst)
拷贝文件和权限
1 importshutil2
3 shutil.copy('f1.log', 'f2.log')
shutil.copy2(src, dst)
拷贝文件和状态信息
1 importshutil2
3 shutil.copy2('f1.log', 'f2.log')
shutil.ignore_patterns(*patterns)
shutil.copytree(src, dst, symlinks=False, ignore=None)
递归的去拷贝文件夹
1 importshutil2
3 shutil.copytree('folder1', 'folder2', ignore=shutil.ignore_patterns('*.pyc', 'tmp*')) #目标目录不能存在,注意对folder2目录父级目录要有可写权限,ignore的意思是排除
importshutil
shutil.copytree('f1', 'f2', symlinks=True, ignore=shutil.ignore_patterns('*.pyc', 'tmp*'))'''通常的拷贝都把软连接拷贝成硬链接,即对待软连接来说,创建新的文件'''
拷贝软连接
shutil.rmtree(path[, ignore_errors[, onerror]])
递归的去删除文件
1 importshutil2
3 shutil.rmtree('folder1')
shutil.move(src, dst)
递归的去移动文件,它类似mv命令,其实就是重命名。
1 importshutil2
3 shutil.move('folder1', 'folder3')
shutil.make_archive(base_name, format,...)
创建压缩包并返回文件路径,例如:zip、tar
创建压缩包并返回文件路径,例如:zip、tar
base_name: 压缩包的文件名,也可以是压缩包的路径。只是文件名时,则保存至当前目录,否则保存至指定路径,
如 data_bak =>保存至当前路径
如:/tmp/data_bak =>保存至/tmp/
format:压缩包种类,“zip”, “tar”, “bztar”,“gztar”
root_dir:要压缩的文件夹路径(默认当前目录)
owner:用户,默认当前用户
group:组,默认当前组
logger:用于记录日志,通常是logging.Logger对象
1 #将 /data 下的文件打包放置当前程序目录
2 importshutil3 ret = shutil.make_archive("data_bak", 'gztar', root_dir='/data')4
5
6 #将 /data下的文件打包放置 /tmp/目录
7 importshutil8 ret = shutil.make_archive("/tmp/data_bak", 'gztar', root_dir='/data')
shutil 对压缩包的处理是调用 ZipFile 和 TarFile 两个模块来进行的,详细:
importzipfile#压缩
z = zipfile.ZipFile('laxi.zip', 'w')
z.write('a.log')
z.write('data.data')
z.close()#解压
z = zipfile.ZipFile('laxi.zip', 'r')
z.extractall(path='.')
z.close()
zipfile压缩解压缩
importtarfile#压缩
>>> t=tarfile.open('/tmp/egon.tar','w')>>> t.add('/test1/a.py',arcname='a.bak')>>> t.add('/test1/b.py',arcname='b.bak')>>>t.close()#解压
>>> t=tarfile.open('/tmp/egon.tar','r')>>> t.extractall('/egon')>>> t.close()
tarfile压缩解压缩
六 json&pickle模块
之前我们学习过用eval内置方法可以将一个字符串转成python对象,不过,eval方法是有局限性的,对于普通的数据类型,json.loads和eval都能用,但遇到特殊类型的时候,eval就不管用了,所以eval的重点还是通常用来执行一个字符串表达式,并返回表达式的值。
1 importjson2 x="[null,true,false,1]"
3 print(eval(x)) #报错,无法解析null类型,而json就可以
4 print(json.loads(x))
什么是序列化?
我们把对象(变量)从内存中变成可存储或传输的过程称之为序列化,在Python中叫pickling,在其他语言中也被称之为serialization,marshalling,flattening等等,都是一个意思。
为什么要序列化?
1:持久保存状态
需知一个软件/程序的执行就在处理一系列状态的变化,在编程语言中,'状态'会以各种各样有结构的数据类型(也可简单的理解为变量)的形式被保存在内存中。
内存是无法永久保存数据的,当程序运行了一段时间,我们断电或者重启程序,内存中关于这个程序的之前一段时间的数据(有结构)都被清空了。
在断电或重启程序之前将程序当前内存中所有的数据都保存下来(保存到文件中),以便于下次程序执行能够从文件中载入之前的数据,然后继续执行,这就是序列化。
具体的来说,你玩使命召唤闯到了第13关,你保存游戏状态,关机走人,下次再玩,还能从上次的位置开始继续闯关。或如,虚拟机状态的挂起等。
2:跨平台数据交互
序列化之后,不仅可以把序列化后的内容写入磁盘,还可以通过网络传输到别的机器上,如果收发的双方约定好实用一种序列化的格式,那么便打破了平台/语言差异化带来的限制,实现了跨平台数据交互。
反过来,把变量内容从序列化的对象重新读到内存里称之为反序列化,即unpickling。
如何序列化之json和pickle:
json
如果我们要在不同的编程语言之间传递对象,就必须把对象序列化为标准格式,比如XML,但更好的方法是序列化为JSON,因为JSON表示出来就是一个字符串,可以被所有语言读取,也可以方便地存储到磁盘或者通过网络传输。JSON不仅是标准格式,并且比XML更快,而且可以直接在Web页面中读取,非常方便。
JSON表示的对象就是标准的JavaScript语言的对象,JSON和Python内置的数据类型对应如下:
1 importjson2
3 dic={'name':'alvin','age':23,'sex':'male'}4 print(type(dic))#
5
6 j=json.dumps(dic)7 print(type(j))#
8
9
10 f=open('序列化对象','w')11 f.write(j) #-------------------等价于json.dump(dic,f)
12 f.close()13 #-----------------------------反序列化
14 importjson15 f=open('序列化对象')16 data=json.loads(f.read())#等价于data=json.load(f)
importjson#dct="{'1':111}"#json 不认单引号#dct=str({"1":111})#报错,因为生成的数据还是单引号:{'one': 1}
dct='{"1":"111"}'
print(json.loads(dct))#conclusion:#无论数据是怎样创建的,只要满足json格式,就可以json.loads出来,不一定非要dumps的数据才能loads
注意点
pickle
1 importpickle2
3 dic={'name':'alvin','age':23,'sex':'male'}4
5 print(type(dic))#
6
7 j=pickle.dumps(dic)8 print(type(j))#
9
10
11 f=open('序列化对象_pickle','wb')#注意是w是写入str,wb是写入bytes,j是'bytes'
12 f.write(j) #-------------------等价于pickle.dump(dic,f)
13
14 f.close()15 #-------------------------反序列化
16 importpickle17 f=open('序列化对象_pickle','rb')18
19 data=pickle.loads(f.read())#等价于data=pickle.load(f)
20
21
22 print(data['age'])
Pickle的问题和所有其他编程语言特有的序列化问题一样,就是它只能用于Python,并且可能不同版本的Python彼此都不兼容,因此,只能用Pickle保存那些不重要的数据,不能成功地反序列化也没关系。
七 shelve模块
shelve模块比pickle模块简单,只有一个open函数,返回类似字典的对象,可读可写;key必须为字符串,而值可以是python所支持的数据类型
importshelve
f=shelve.open(r'sheve.txt')#f['stu1_info']={'name':'egon','age':18,'hobby':['piao','smoking','drinking']}#f['stu2_info']={'name':'gangdan','age':53}#f['school_info']={'website':'http://www.pypy.org','city':'beijing'}
print(f['stu1_info']['hobby'])
f.close()
八 xml模块
xml是实现不同语言或程序之间进行数据交换的协议,跟json差不多,但json使用起来更简单,不过,古时候,在json还没诞生的黑暗年代,大家只能选择用xml呀,至今很多传统公司如金融行业的很多系统的接口还主要是xml。
xml的格式如下,就是通过<>节点来区别数据结构的:
2
2008
141100
5
2011
59900
69
2011
13600
xml数据
xml协议在各个语言里的都 是支持的,在python中可以用以下模块操作xml:
importxml.etree.ElementTree as ET
tree= ET.parse("xmltest.xml")
root=tree.getroot()print(root.tag)#遍历xml文档
for child inroot:print('========>',child.tag,child.attrib,child.attrib['name'])for i inchild:print(i.tag,i.attrib,i.text)#只遍历year 节点
for node in root.iter('year'):print(node.tag,node.text)#---------------------------------------
importxml.etree.ElementTree as ET
tree= ET.parse("xmltest.xml")
root=tree.getroot()#修改
for node in root.iter('year'):
new_year=int(node.text)+1node.text=str(new_year)
node.set('updated','yes')
node.set('version','1.0')
tree.write('test.xml')#删除node
for country in root.findall('country'):
rank= int(country.find('rank').text)if rank > 50:
root.remove(country)
tree.write('output.xml')
View Code
自己创建xml文档:
importxml.etree.ElementTree as ET
new_xml= ET.Element("namelist")
name= ET.SubElement(new_xml,"name",attrib={"enrolled":"yes"})
age= ET.SubElement(name,"age",attrib={"checked":"no"})
sex= ET.SubElement(name,"sex")
sex.text= '33'name2= ET.SubElement(new_xml,"name",attrib={"enrolled":"no"})
age= ET.SubElement(name2,"age")
age.text= '19'et= ET.ElementTree(new_xml) #生成文档对象
et.write("test.xml", encoding="utf-8",xml_declaration=True)
ET.dump(new_xml)#打印生成的格式
View Code
九 configparser模块
好多软件的常见文档格式如下,文件名为test.ini:
1 [DEFAULT]2 ServerAliveInterval = 45
3 Compression =yes4 CompressionLevel = 9
5 ForwardX11 =yes6
7 [bitbucket.org]8 User =hg9
10 [topsecret.server.com]11 Port = 50022
12 ForwardX11 = no
[PHP]
engine=On
short_open_tag=Off
asp_tags=Off
precision= 14output_buffering= 4096zlib.output_compression=Off
implicit_flush=Off
unserialize_callback_func=serialize_precision= 17disable_functions=disable_classes=zend.enable_gc=On
expose_php=On
max_execution_time= 30max_input_time= 60memory_limit=128M
error_reporting= E_ALL & ~E_DEPRECATED & ~E_STRICT
display_errors=Off
display_startup_errors=Off
log_errors=On
log_errors_max_len= 1024ignore_repeated_errors=Off
ignore_repeated_source=Off
report_memleaks=On
track_errors=Off
html_errors=On
variables_order= "GPCS"request_order= "GP"register_argc_argv=Off
auto_globals_jit=On
post_max_size=8M
auto_prepend_file=auto_append_file=default_mimetype= "text/html"doc_root=user_dir=enable_dl=Off
file_uploads=On
upload_max_filesize=2M
max_file_uploads= 20allow_url_fopen=On
allow_url_include=Off
default_socket_timeout= 60[CLI Server]
cli_server.color=On
[Date]
[filter]
[iconv]
[intl]
[sqlite]
[sqlite3]
[Pcre]
[Pdo]
[Pdo_mysql]
pdo_mysql.cache_size= 2000pdo_mysql.default_socket=[Phar]
[mail function]
SMTP=localhost
smtp_port= 25sendmail_path= /usr/sbin/sendmail -t -i
mail.add_x_header=On
[SQL]
sql.safe_mode=Off
[ODBC]
odbc.allow_persistent=On
odbc.check_persistent=On
odbc.max_persistent= -1odbc.max_links= -1odbc.defaultlrl= 4096odbc.defaultbinmode= 1[Interbase]
ibase.allow_persistent= 1ibase.max_persistent= -1ibase.max_links= -1ibase.timestampformat= "%Y-%m-%d %H:%M:%S"ibase.dateformat= "%Y-%m-%d"ibase.timeformat= "%H:%M:%S"[MySQL]
mysql.allow_local_infile=On
mysql.allow_persistent=On
mysql.cache_size= 2000mysql.max_persistent= -1mysql.max_links= -1mysql.default_port=mysql.default_socket=mysql.default_host=mysql.default_user=mysql.default_password=mysql.connect_timeout= 60mysql.trace_mode=Off
[MySQLi]
mysqli.max_persistent= -1mysqli.allow_persistent=On
mysqli.max_links= -1mysqli.cache_size= 2000mysqli.default_port= 3306mysqli.default_socket=mysqli.default_host=mysqli.default_user=mysqli.default_pw=mysqli.reconnect=Off
[mysqlnd]
mysqlnd.collect_statistics=On
mysqlnd.collect_memory_statistics=Off
[OCI8]
[PostgreSQL]
pgsql.allow_persistent=On
pgsql.auto_reset_persistent=Off
pgsql.max_persistent= -1pgsql.max_links= -1pgsql.ignore_notice=0
pgsql.log_notice=0
[Sybase-CT]
sybct.allow_persistent=On
sybct.max_persistent= -1sybct.max_links= -1sybct.min_server_severity= 10sybct.min_client_severity= 10[bcmath]
bcmath.scale=0
[browscap]
[Session]
session.save_handler=files
session.use_cookies= 1session.use_only_cookies= 1session.name=PHPSESSID
session.auto_start=0
session.cookie_lifetime=0
session.cookie_path= /session.cookie_domain=session.cookie_httponly=session.serialize_handler=php
session.gc_probability= 1session.gc_divisor= 1000session.gc_maxlifetime= 1440session.bug_compat_42=Off
session.bug_compat_warn=Off
session.referer_check=session.cache_limiter=nocache
session.cache_expire= 180session.use_trans_sid=0
session.hash_function=0
session.hash_bits_per_character= 5url_rewriter.tags= "a=href,area=href,frame=src,input=src,form=fakeentry"[MSSQL]
mssql.allow_persistent=On
mssql.max_persistent= -1mssql.max_links= -1mssql.min_error_severity= 10mssql.min_message_severity= 10mssql.compatability_mode=Off
mssql.secure_connection=Off
[Assertion]
[mbstring]
[gd]
[exif]
[Tidy]
tidy.clean_output=Off
[soap]
soap.wsdl_cache_enabled=1soap.wsdl_cache_dir="/tmp"soap.wsdl_cache_ttl=86400soap.wsdl_cache_limit= 5[sysvshm]
[ldap]
ldap.max_links= -1[mcrypt]
[dba]
php.ini文件的格式也是如翠
1 获取所有节点
importconfigparser
config=configparser.ConfigParser()
config.read('test.ini',encoding='utf-8')
res=config.sections()print(res)'''打印结果:
['bitbucket.org', 'topsecret.server.com']'''
2 获取指定节点下所有的键值对
importconfigparser
config=configparser.ConfigParser()
config.read('test.ini',encoding='utf-8')
res=config.items('bitbucket.org')print(res)'''打印结果:(包含DEFAULT以及bitbucket.org这俩标题下所有的items)
[('serveraliveinterval', '45'), ('compression', 'yes'), ('compressionlevel', '9'), ('forwardx11', 'yes'), ('user', 'hg')]'''
3 获取指定节点下所有的建
importconfigparser
config=configparser.ConfigParser()
config.read('test.ini',encoding='utf-8')
res=config.options('bitbucket.org')print(res)'''打印结果:(包含DEFAULT以及bitbucket.org这俩标题下所有的键)
['user', 'serveraliveinterval', 'compression', 'compressionlevel', 'forwardx11']'''
4 获取指定节点下指定key的值
importconfigparser
config=configparser.ConfigParser()
config.read('test.ini',encoding='utf-8')
res1=config.get('bitbucket.org','user')
res2=config.getint('topsecret.server.com','port')
res3=config.getfloat('topsecret.server.com','port')
res4=config.getboolean('topsecret.server.com','ForwardX11')print(res1)print(res2)print(res3)print(res4)'''打印结果:
hg
50022
50022.0
False'''
5 检查、删除、添加节点
importconfigparser
config=configparser.ConfigParser()
config.read('test.ini',encoding='utf-8')#检查
has_sec=config.has_section('bitbucket.org')print(has_sec) #打印True
#添加节点
config.add_section('egon') #已经存在则报错
config['egon']['username']='gangdan'config['egon']['age']='18'config.write(open('test.ini','w'))#删除节点
config.remove_section('egon')
config.write(open('test.ini','w'))
6 检查、删除、设置指定组内的键值对
importconfigparser
config=configparser.ConfigParser()
config.read('test.ini',encoding='utf-8')#检查
has_sec=config.has_option('bitbucket.org','user') #bitbucket.org下有一个键user
print(has_sec) #打印True
#删除
config.remove_option('DEFAULT','forwardx11')
config.write(open('test.ini','w'))#设置
config.set('bitbucket.org','user','gangdang')
config.write(open('test.ini','w'))
importconfigparser
config=configparser.ConfigParser()
config["DEFAULT"] = {'ServerAliveInterval': '45','Compression': 'yes','CompressionLevel': '9'}
config['bitbucket.org'] ={}
config['bitbucket.org']['User'] = 'hg'config['topsecret.server.com'] ={}
topsecret= config['topsecret.server.com']
topsecret['Host Port'] = '50022' #mutates the parser
topsecret['ForwardX11'] = 'no' #same here
config['DEFAULT']['ForwardX11'] = 'yes'with open('example.ini', 'w') as configfile:
config.write(configfile)
基于上述方法添加一个ini文档
十 hashlib模块
hash:一种算法 ,3.x里代替了md5模块和sha模块,主要提供 SHA1, SHA224, SHA256, SHA384, SHA512 ,MD5 算法
三个特点:
1.内容相同则hash运算结果相同,内容稍微改变则hash值则变
2.不可逆推
3.相同算法:无论校验多长的数据,得到的哈希值长度固定。
1 importhashlib2
3 m=hashlib.md5()#m=hashlib.sha256()
4
5 m.update('hello'.encode('utf8'))6 print(m.hexdigest()) #5d41402abc4b2a76b9719d911017c592
7
8 m.update('alvin'.encode('utf8'))9
10 print(m.hexdigest()) #92a7e713c30abbb0319fa07da2a5c4af
11
12 m2=hashlib.md5()13 m2.update('helloalvin'.encode('utf8'))14 print(m2.hexdigest()) #92a7e713c30abbb0319fa07da2a5c4af
15
16 '''
17 注意:把一段很长的数据update多次,与一次update这段长数据,得到的结果一样18 但是update多次为校验大文件提供了可能。19 '''
以上加密算法虽然依然非常厉害,但时候存在缺陷,即:通过撞库可以反解。所以,有必要对加密算法中添加自定义key再来做加密。
1 importhashlib2
3 ######### 256 ########
4
5 hash = hashlib.sha256('898oaFs09f'.encode('utf8'))6 hash.update('alvin'.encode('utf8'))7 print (hash.hexdigest())#e79e68f070cdedcfe63eaf1a2e92c83b4cfb1b5c6bc452d214c1b7e77cdfd1c7
python 还有一个 hmac 模块,它内部对我们创建 key 和 内容 进行进一步的处理然后再加密:
1 importhmac2 h = hmac.new('alvin'.encode('utf8'))3 h.update('hello'.encode('utf8'))4 print (h.hexdigest())#320df9832eab4c038b6c1d7ed73a5940
十一 suprocess模块
1 importsubprocess2
3 '''
4 sh-3.2# ls /Users/egon/Desktop |grep txt$5 mysql.txt6 tt.txt7 事物.txt8 '''
9
10 res1=subprocess.Popen('ls /Users/jieli/Desktop',shell=True,stdout=subprocess.PIPE)11 res=subprocess.Popen('grep txt$',shell=True,stdin=res1.stdout,12 stdout=subprocess.PIPE)13
14 print(res.stdout.read().decode('utf-8'))15
16
17 #等同于上面,但是上面的优势在于,一个数据流可以和另外一个数据流交互,可以通过爬虫得到结果然后交给grep
18 res1=subprocess.Popen('ls /Users/jieli/Desktop |grep txt$',shell=True,stdout=subprocess.PIPE)19 print(res1.stdout.read().decode('utf-8'))
十二 logging模块
十三 re模块
十四 requests模块
十五 paramiko