Day14 网络URL与爬虫应用
----容易忘的点
x=4.4
y=2
print(x/y) 结果是2.2
print(x//y) 结果是2
浮点数类似
1.在python中解构URL
----request 请求
from urllib import request#网络请求库
resp=request.urlopen('http://www.baidu.com')
#print(resp.read()) #显示源代码
#print(resp.readlines())
print(resp.getcode()) #请求返回的http状态码
----urlretrieve函数:可以将网页上的一个文件保存到本地
from urllib import request
request.urlretrieve('https://timgsa.baidu.com/timg?image&quality=80&size=b9999_10000&sec=1604926764429&di=a9062172e99953a81297bafad98ad719&imgtype=0&src=http%3A%2F%2Fimg2.imgtn.bdimg.com%2Fit%2Fu%3D1250826167%2C1778280409%26fm%3D214%26gp%3D0.jpgm','trump.jpgm')
----parse 编码解码
from urllib import parse #parse 编码解码
data={'name':'爬虫数据','greet':'hello world','age':100}
q=parse.urlencode(data) #字典数据转换为URL编码数据
print(q)
----Python: 报错[SSL: CERTIFICATE_VERIFY_FAILED]
from urllib import request
import ssl #ssl模式修改目标网站使用的自签名的证书
ssl._create_default_https_context = ssl._create_unverified_context
#ps:带中文的链接粘贴进python后自动编码了???不需要进行编码吗?
url='https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=1&tn=baidu&wd=%E5%88%98%E5%BE%B7%E5%8D%8E&fenlei=256&oq=%25E4%25BA%25AC%25E4%25B8%259C&rsv_pq=b7110fc700009954&rsv_t=af16tUuAFfFXo23vuCK5mqr3Nk%2B8p%2F0mjQUE4sDj7X6woE7tywzI%2FdpWv9o&am