千里之行,始于足下。python 爬虫 requestes模块(1)

爬虫的流程:

在开始学习爬虫,我们必须了解爬虫的流程框架。在我看来爬虫的流程大概就是三步,即不论我们爬取的是什么数据,总是可以把爬虫的流程归纳总结为这三步:

  1. 指定 url, 可以简单的理解为指定要爬取的网址
  2. 发送请求。requests 模块的请求一般为 get 和 post
  3. 将爬取的数据存储

requests 模块的导入:

因为 requests 模块属于外部库,所以需要我们自己导入库

导入的步骤:

  1. 右键Windows图标
  2. 点击“运行”
  3. 输入“cmd”打开命令面板
  4. 输入“pip install requests”,等待下载完成

如图:
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

如果还是下载失败,我的建议是百度一下,你就知道(我也是边学边写,是在是水平有限)

欧克,既然导入成功后我们就简单的来爬取一下搜狗的首页吧!
代码如下:

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值