python安装requests(第三方)库和第一个爬虫程序

- 安装python requests库

python中最重要的库就是requests库,那么我们应该怎么去安装这个库呢?
Windows系统中查找cmd,右击鼠标选择以管理员身份运行(如图)x打开md
在对话框中输入 pip install requests ,等待黄色字体出来以后就说明成功了!(如图)图中由于我已经装过了所以可能不太一样,原理是一样的!安装requests库图示
也有小伙伴用的是pycharm等集成开发环境,这里我就简单的介绍一下pycharm安装库的方法:
1、打开pycharm
2、依次点击File–Settings–Project–Project Interpreter
3、双击右侧的pip,点击最上边的框进行查找,输入requests,点击requests,最后点击左下角的Install package,等待一会,就可以import导入刚才下载的库啦!pycharm安装库
下面给大家介绍一下requests的Response 对象的属性

  • r.status_code 【 HTTP请求的返回状态,200表示链接成功,404表示链接失败 (首先检查返回状态)返回200
    可以使用r.text】
  • r.encoding / r.apparent_encoding / r.content 【解析返回内容】
  • r.text 【HTTP响应内容的字符串形式,即,url对应的页面内容】
  • r.encoding 【从HTTP header中猜测响应内容编码方式
    r如果header中不存在charset,则认为编码为ISO-8859-】
  • r.apparent_encoding 【从内容中分析出的响应内容编码方式(备选编码方式)
    根据网页内容分析出编码方式r.content HTTP响应内容的二进制形式】

接下来介绍

requests的get方法:

语法如下:

***语法: requests.get(url【网址】,params=None【网址的额外参数,字典或字节流格式,可选】,kwargs【12个控制访问的参数】)***注意:【】内的内容只是为解释说明作用

有了利剑就应该挥出来,下面就给大家分享一个最简单的获取网页的方法*

import requests
r = requests.get('URL')  # 爬取某个网站
code = r.status_code    # 检查连接是否成功 200表示链接成功,404或者其他表示链接失败 
print(code)
text = r.text  # url对应的页面内容
print(text)
headers = r.headers  # 返回get请求获取的页面的头部信息
print(headers)

至此,简单的爬虫就学习完了,下一个文章给大家分享一下爬取网页通用的代码框架
本文内容由本人学习整合内容,如侵删!

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值