python基础学习第四天
一、描述符
就是将某种特殊类型的类的实例指派给另一个类的属性
特殊类型 __get__(self,instance,owner) 用于访问属性,它返回属性的值
__set__(self,instance,value)将在属性分配操作中调用,不返回任何内容
__delete__(self,instance) 控制删除操作,不返回任何内容
二、协议
与其他编程语言中的接口相似,它规定你哪些方法必须要定义。但在Python中,协议更像是一种指南。
- 如果希望定制的容器是不可变的,只需定义__len__()和__getitem__()方法
- 如果希望定制的容器是可变的,除了定义__len__()和__getitem__(),还要定义__settitem__()和__delitem__()两个方法
三、迭代器
__iter__() __netxt__()
四、生成器
所谓的协同程序就是可以运行的独立函数调用,函数可以暂停或者挂起,并在需要的时候从程序离开的地方继续或者重新开始
五、爬虫爬图片
先用urllib.request.Request()获取网站地址
headers = {key,value}
获取的字符用decode()转成utf-8
然后用find()查看到图片
最后创建一个文件夹,用于保存图片
代码如下:
"""import urllib.request
response = urllib.request.urlopen("http://placekitten.com/g/200/300")
cat_img = response.read()
with open("cat.jpg","wb") as f:
f.write(cat_img)
"""
import urllib.request
import os
def url_open(url):
req = urllib.request.Request(url)
req.add_header("User-Agent","Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.135 Safari/537.36")
response = urllib.request.urlopen(url)
html = response.read()
return html
def get_page(url):
html = url_open(url).decode("utf-8")
a = html.find("current-comment-page") + 23
b = html.find("]",a)
return html[a:b]
def find_imgs(url):
html = url_open(url).decode("utf-8")
img_addrs = []
a = html.find("img src=")
while a !=-1:
b = html.find(".jpg",a,a+255)
if b !=-1:
img_addrs.append(html[a+9:b+4])
else:
b = a + 9
a = html.find("img src=",b)
return img_addrs
def img_addrs(folder,img_addrs):
for each in img_addrs:
filename = each.split("/")[-1]
with open(filename,"wb") as f:
img = open_url(each)
f.write(img)
def download_num(folder="ZOO",pages=10):
os.mkdir(folder)
os.chdir(folder)
url = "http://jandan.net/zoo/"
page_num =int(get_page(url))
for i in range(pages):
page_num -= i
page_url = url + "page-"+str(page_num) + "#comments"
img_addrs = find_imgs(page_url)
save_imgs(folder,img_addrs)
if __name__ == "__main__":
download_num()