爬虫网络请求模块-urllib-requests-python爬虫知识点2

爬虫网络请求模块

步骤

  • 发出请求
    获取响应
    解析响应

一、urllib

python内置的网络请求模块

版本

  • python2 :urllib2、urllib
    python3 :把urllib和urllib2合并

学习意义

  • 1.有些比较老的爬虫项目就是这个技术
  • 2.有的时候我们去怕一些数据需要reque+urlib模块进行配合
  • 3.内置的

导包注意

  • 直接import urllib不行的话,就一个一个像这样导urllib.request

(一)请求并获取urllib.request

request.Request(url,headers)

创建请求对象

  • get请求: req=urllib.request.Request(url,headers)
  • post请求: req=urllib.request.Request(url,data,headers)
    • data必须是字节流bytes, 是由字典通过parse.urlencode()转化为str,再通过bytes()转化为bytes字节流

request.urlopen(req)

想网站发起请求,并获取响应对象

  • urllib.request.urlopen(‘网址’),可以直接填网址,但不能添加headers,不好反反爬
  • urllib.request.urlopen(req),请求对象自带headers就行

request.urlretrive(url,'文件名')

将请求链接直接下载保存为文件

  • 一般用于图片下载
  • 不能添加headers

(二)处理编码urlib.parse

parse.urlencode(wd)

编码url的中文字段

  • wd 参数是字典 ,key是链接中“=”的左边关键字,value是链接中“=”的右边中文字

作用

  • url 汉字要进行编码,网址到编辑器就会变成十六进制+%(三个%之间表示一个汉字),因为机器无法识别汉字,需要进行编码
  • 如果你把网址的十六进制改为中文,就会报错
    在这里插入图片描述

parse.quote(wd)

编码url的中文字段

  • wd是字符串,不带关键字,直接将中文字符串转成编码

parse.unquote(wd)

解码十六进制+%

  • wd是字符串,不带关键字,直接将中文字符串转成编码

作用

  • 有的时候爬下来的链接http后面全都是十六进制+%,这个时候就需要把它转化为正常的链接

(三)对响应对象操作

定义

  • response = request.urlopen(req) 获取的响应对象
  • 没有text、content方法

区分

  • get响应对象:<class ‘http.client.HTTPResponse’>
  • post响应对象:<class ‘urllib.request.Request’>

response.read()

读取html信息

  • 返回的是bytes
  • response.read().decode(‘utf-8’) 将返回的内容转化为字符串,并显现出中文字
  • 数据获取的是少量bytes,非图片链接
    • 说明被反爬了,并进一步观察是否要添加修改headers信息
  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

洋芋本人

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值