爬虫常用库介绍

urllib

  • Urllib是 python 内置的库,在 Python 这个内置的 Urllib 库中有这么 4 个模块

  • request:request模块是我们用的比较多的,就是用它来发起请求,所以我们重点说说这个模块

  • error:error模块就是当我们在使用 request 模块遇到错了,就可以用它来进行异常处理

  • parse:parse模块就是用来解析我们的 URL 地址的,比如解析域名地址啦,URL指定的目录等

  • robotparser:这个用的就比较少了,它就是用来解析网站的 robot.txt

了解了 urllib 之后
我们就可以用 python 代码来模拟请求了

Requests

Requests这个库比我们上次说的 urllib 可是要牛逼一丢丢的,毕竟 Requests 是在 urllib 的基础上搞出来的。通过它我们可以用更少的代码模拟浏览器操作。
对于不是 python 的内置库,我们需要安装一下,直接使用 pip 安装

pip install requests

一行代码GET请求

r = requests.get('https://www.sina.com.cn/')

一行代码post请求<

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值