python爬虫基础测试

1requests基本使用

主要有get/post/put三种方式,返回的是响应对象(response object):
res = resquests.get/post/put(url,params,data,...)
对于每种方式(method),其可传递的参数包括以下 额 好多种:

参数说明煮个小栗子
url待获取页面的url链接requests.get("http://tieba.baidu.com")
params将字典或字节序列作为参数添加到url中kw={"kw":"李毅"}
requests.get(url,params=kw)
# 得到的res为“http://tieba.baidu.com/f?kw=李毅”
data字典,字节序列或文件对象,作为res的内容待补充
headers字典,HTTP定制头header = {"User-Agent":"Mozilla/5.0"}
resq.get(url,headers=header)
timeout设定超时时间,单位为秒
proxies字典类型,设定访问代理服务器proxie={"http:":"http://12.34.56.79:9527"}
resq.get(url,proxies=proxie)
verify认证SSL证书开关,默认为False 
jsonJSON格式的数据,作为resquests的内容 
auth元祖,支持HTTP认证功能 

1.1 基本get请求

# ===============1、基本GET请求---百度搜索页=====================
kw = {'wd':'花梨'}
res_1 = requests.get('https://www.baidu.com/',params=kw,headers=headers)
# 网页内容乱码,默认编码是ISO-8859-1,修改
res_1.encoding = 'utf-8'

# 查看返回对象类型和内容---response对象
print(type(res_1))   # <class 'requests.models.Response'>
print(res_1.text)  # 返回的是Unicode格式的str数据
print(res_1.content)   # 返回的是二进制字节流(bytes)数据
#查看完整url地址,,响应头部字符编码 和响应码
print(res_1.url)     # https://www.baidu.com/
print(res_1.encoding)   # utf-8
print(res_1.status_code)  # 200

1.2 基本POST请求

对于POST请求,一般需要增加一些参数,最基本的利用data参数

# =======2、基本post请求,有道词典翻译==============
formdata = {
    "type":"AUTO",
    "i":"i love python",
    "doctype":"json",
    "keyfrom":"fanyi.web",
    "ue":"utf-8",
    "action":"FY_BY_ENTER",
    "typeResult":"true"
}
url_2 = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=null"
res_2 = requests.post(url_2,data=formdata,headers=headers)
print(res_2.text)
print(res_2.json())  # json文件可以直接显示

1.3 与urllib urllib2的区别

  • (1)输入kw等参数时
    在requests中,params可以接收字典类型的参数
kw={"kw":"李毅"}
requests.get(url,params=kw)  # 此时requests自动将kw自动转为url形式

但是在urllib中:

kw={"kw":"李毅"}
kw = urllib.urlencode(kw)  #将字典形式转换为url编码格式(字符串)
newurl = url +"?"+ kw 
  • (2)返回html内容时
    在得到response对象后,res可以以两种形式返回网页内容
html = res.text  # 返回的是str格式的文本内容
html = res.content # 返回的是bytes格式的二进制字节流,可以用来存储图片等内容

而在urllib中,

res = urllib.request.urlopen(url)  # response对象
html = res.read()   
print(type(html))   # <class 'bytes'>
print(html)   # bytes格式
html = html.decode()   # 将bytes格式转为str
print(html)  # str格式

2 XPath解析html页面

2.0 前提知识

关于DOM、HTML、XML的简单概念和关系参考我写的另一篇杂文DOM 及 HTML和XML

2.1 基本流程

 

13379455-33039db537147927.png

从url到content.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值