python爬虫接单发源地_Python爬虫的开始——requests库建立请求

接下来我将会用一段时间来更新python爬虫

网络爬虫大体可以分为三个步骤。

首先建立请求,爬取所需元素;

其次解析爬取信息,剔除无效数据;

最后将爬取信息进行保存;

今天就先来讲讲第一步,请求库requests

request库主要有七个常用函数,如下所示

1785234-20191124105512243-1238823527.png

而通过requests创建的数据类型为response

我们以爬取百度网站为例

importrequests as r

t=r.get("https://www.baidu.com/")print(type(t))

运行结果如下所示

[Finished in 1.3s]

那么作为请求对象,具有哪些属性呢?

爬取数据第一步要做的事便是确认是否连接成功

status_code()从功能角度考虑,算的上是一种判断函数,调用将会返还结果是否成功

如果返回结果为200,则代表连接成功,如果返回结果为404,则代表连接失败

importrequests as r

t=r.get("https://www.baidu.com/")print(type(t))print(t.status_code)

如图所示返回结果为200,连接成功

1785234-20191124110837614-1171002931.png

那么下一步便是获得网址代码,不过在获得代码之前,还需要做一件事,得到响应内容的编码方式

不同的编码方式将会影响爬取结果

比如说百度网址:https://www.baidu.com/

采用编码方式为ISO-8859-1

获取编码方式为encoding

如下所示

importrequests as r

t=r.get("https://www.baidu.com/")print(type(t))print(t.status_code)print(t.encoding)

结果:

200

ISO-8859-1

当然有的网页采用 utf8,也有使用gbk,

不同的编码方式会影响我们获得的源码

也可以通过手动更改来改变获得的编码方式

比如:

importrequests as r

t=r.get("https://www.baidu.com/")print(t.encoding)

t.encoding="utf-8"

print(t.encoding)

结果

1785234-20191124112335312-552860036.png

也可以试着备选码方式,apparent_encoding

之后我们就可以获得源代码了,我们需要将源代码以字符串类型输出保存

这就需要用到text

如下所示:

importrequests as r

t=r.get("https://www.baidu.com/")print(t.text)

结果:

1785234-20191124112941043-1849916177.png

这样我们就获得了对应网站的源码,完成了爬虫的第一步

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值