Python Requests简单运用

Requests简介

Requests 是使用 Apache2 Licensed 许可证的 HTTP 库。比Python 标准库中的 urllib2 模块功能强大。

Requests 使用的是 urllib3,因此继承了它的所有特性。Requests 支持 HTTP 连接保持和连接池,支持使用 cookie 保持会话,支持文件上传,支持自动确定响应内容的编码,支持国际化的 URL 和 POST 数据自动编码。

功能特性

Requests 完全满足如今网络的需求。

  • 国际化域名和 URLs
  • Keep-Alive & 连接池
  • 持久的 Cookie 会话
  • 类浏览器式的 SSL 加密认证
  • 基本/摘要式的身份认证
  • 优雅的键/值 Cookies
  • 自动解压
  • Unicode 编码的响应体
  • 多段文件上传
  • 连接超时
  • 支持 .netrc
  • 适用于 Python 2.6—3.4
  • 线程安全

牛刀小试

>>> import requests
>>> r = requests.get('http://www.baidu.com')   # 发送请求
>>> r.status_code                               # 网页状态码
200
>>> r.headers['content-type']                  #响应头内容
'text/html; charset=utf-8'
>>> r.encoding                                 #获取网页编码
'utf-8'
>>> r.text                                     #获取响应网页的内容
'<!--STATUS OK--&gt...

为URL传递参数

>>> payload = {'key1': 'value1', 'key2': 'value2'}
>>> r = requests.get("http://httpbin.org/get", params=payload)
>>> r = requests.post("http://httpbin.org/post", data=payload)
>>> print r.text

超时

你可以告诉requests在经过以 timeout 参数设定的秒数时间之后停止等待响应:

>>> requests.get('http://github.com', timeout=0.001)
Traceback (most recent call last):
  File "", line 1, in 
requests.exceptions.Timeout: HTTPConnectionPool(host='github.com', port=80): Request timed out. (timeout=0.001)

代理

如果需要使用代理,你可以通过为任意请求方法提供 proxies 参数来配置单个请求:

import requests

proxies = {
  "http": "http://10.10.1.10:3128",
  "https": "http://10.10.1.10:1080",
}

requests.get("http://example.org", proxies=proxies)

错误与异常

遇到网络问题(如:DNS查询失败、拒绝连接等)时,Requests会抛出一个 ConnectionError 异常。
遇到罕见的无效HTTP响应时,Requests则会抛出一个 HTTPError 异常。
若请求超时,则抛出一个 Timeout 异常。
若请求超过了设定的最大重定向次数,则会抛出一个 TooManyRedirects 异常。
所有Requests显式抛出的异常都继承自 requests.exceptions.RequestException 。

更多介绍可参考官方文档

整理自网络

svoid
2015-03-14

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/29733787/viewspace-1460107/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/29733787/viewspace-1460107/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
遵循伦理和法律规范。此外,我们还需要鼓励科学家和研究人员遵循科爬取百度文库可以使用Pythonrequests库和BeautifulSoup库。 首先,你需要使用requests库发送HTTP请求获取网页的HTML代码。代码如下: ```python import requests url = "https://wenku.baidu.com/view/xxxxxx学研究的规范和伦理准则,建立科学研究的良好风气,确保科学研.html" # 百度文库的URL地址 response = requests.get(url) # 发送GET请求获取HTML代码 html究的安全性和合法性。 六、结论 贺建奎基因编辑双胞胎婴儿事件是一 = response.text # 获取HTML代码 ``` 其中的xxxxxx需要替换成你要爬取的文档的ID。 件具有重大意义的事件,它引发了全球科学界和社会对基因编辑技术的接着,你需要使用BeautifulSoup库解析HTML代码,并提取出文档的内容。代码如下: ```python 伦理和道德问题的思考和反思。我们需要创新伦理审批和监管机制,加强from bs4 import BeautifulSoup soup = BeautifulSoup(html, "html.parser") # 使用BeautifulSoup解析HTML代码 content = "" 公众教育和科普工作,鼓励科学家和研究人员遵循科学研究的规范 # 存储文档的内容 for p in soup.find_all("p"): # 遍历HTML标签<p>,提取和伦理准则,确保基因编辑技术的应用符合人类福祉和安全。这一事件文档的内容 content += p.text.strip() + "\n" print(content) # 输出文档的内容 ``` 也提醒我们,科学研究必须始终以人类福祉和安全为出发点,科学家以上代码仅为一个简单的示例,你还需要考虑一些反爬虫措施、异常处理、文档格式的不同等问题。希望对你有所帮助!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值