Python爬虫01——requests库01

Requests库

其实,我在学习爬虫的过程中,我是先学了一个叫做 urllib 的库,不过我觉得我在后续的学习中也没怎么用这个库,都是用request库,所以我就直接跳过它了。

requests概述

下面,直接看看官方文档对于这个库的介绍。点击跳转中文文档

在这里插入图片描述
说实话,上面就是文档首页的简介。下面来看看request库的功能特性:
Keep-Alive & 连接池
国际化域名和 URL
带持久 Cookie 的会话
浏览器式的 SSL 认证
自动内容解码
基本/摘要式的身份认证
优雅的 key/value Cookie
自动解压
Unicode 响应体
HTTP(S) 代理支持
文件分块上传
流下载
连接超时
分块请求
支持 .netrc
PS:上面 都是一些看不懂的东西,我们也不必管,只管好好学习怎么使用这个库就可以了。

安装

pip install requests

这个没什么好说的。

快速上手

我用简单的三行代码就可以运行一个最简单的示例。

import requests

r = requests.get('https://www.baidu.com')
print(r)

下面的截图是我在 pycharm 中的运行结果。
在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值