python爬虫---requests库的学习

request方法

request方法用于构造一个请求,可以是get\post\put等任意一种,参数列举如下:

url:请求 URL
params:请求参数,字典类型,常用于发送 GET 请求时使用
timeout:超时时间 ,整数类型
headers:设置请求头
auth:指定登陆时的账号和密码,元祖类型
verify:请求网站时是否需要验证,布尔类型
proxies:设置代理
cookies:cookies 值
allow_redirects:布尔值,默认为Ture,重定向开关
stream:布尔值,默认为True,为True时会先下载响应头,当Reponse调用content方法时才下载响应体
cert:传入客户端的SSL证书,为字符串时应是 SSL 客户端证书文件的路径(.pem格式,文件路径包含密钥和证书),如果是元组,就应该是一个(‘cert’, ‘key’) 二元值对。

get方法

get方法主要是浏览器以get方法从客户端向服务端进行发送数据包

import requests
import json
url = 'https://www.taobao.com/'
response = requests.get(url=url)
#返回响应信息的URL
print(response.url)
print('------------------')
#返回响应的状态码
print(response.status_code)
print('----------------')
#返回响应的编码形式
print(response.encoding)
print('----------------------')
#返回响应的cookies信息
print(response.cookies)
print('-------------------')
#返回响应头
print(response.headers)
print('----------------------')
#返回byte响应体
print(response.content)
print('-------------------------')
#返回str的响应体
print(response.text)
#返回dict类型的响应体
print(response.json())

POST方法

post一般是客户端向服务端发送表单时使用该方法。注意:get类型传参是用params,post类型传参是用data。

import requests
url =''
headers = {
}
data ={
name:A
age:19
}
response = request.post(url=url,data=data,headers=headers)
print(response.text)

post返回的response参数和get的一样
post也可以来上传文件

import reuqests
url = ''
headers={}
files = {'file':open('1.txt','rb')}
r=requests.post(url=url,headers=headers,files=files)
print(r.text)

高级操作

获取cookies

import requests

r = requests.get('https://www.zhihu.com')
cookies = r.cookies
print(cookies)
print('\n')
for key,value in cookies:
    print(key+':'+value)

会话保持

requests库的session会话对象,可以保存一些cookie等参数,减少登录次数

#模拟淘宝登陆
import requests
url='https://login.taobao.com/member/login.jhtml?redirectURL=https%3A%2F%2Fai.taobao.com%2F%3Fpid%3Dmm_26632323_6762370_25910879'
headers={'user-agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'}
formdata={'TPL_username':'fsdafdfasf','TPL_password':'fsadfasf'}
se=requests.session() #建立session会话
ss=se.post(url=url,headers=headers,data=formdata) #发送post请求
if ss.status_code==200: #判断登陆状态
  print('登录成功')
else:
  print('登录失败')

使用代理

先说为什么要使用代理服务器,使用有效的代理IP地址

我们在做爬虫的过程中经常会遇到这样的情况,最初爬虫正常运行,正常抓取数据,一切看起来都是那么美好,然而一杯茶的功夫可能就会出现错误,比如403
Forbidden,这时候打开网页一看,可能会看到“您的IP访问频率太高”这样的提示。出现这种现象的原因是网站采取了一些反爬虫措施。比如,服务器会检测某个IP在单位时间内的请求次数,如果超过了这个阈值,就会直接拒绝服务,返回一些错误信息,这种情况可以称为封IP。 既然服务器检测的是某个IP单位时间的请求次数,那么借助某种方式来伪装我们的IP,让服务器识别不出是由我们本机发起的请求,不就可以成功防止封IP了吗? 一种有效的方式就是使用葵芳IP代理,目前大的的爬虫代理服务商,后面会详细说明代理的用法。在这之前,需要先了解下代理的基本原理,它是怎样实现IP伪装的呢?
1.
基本原理
代理实际上指的就是代理服务器,英文叫作proxy
server,它的功能是代理网络用户去取得网络信息。形象地说,它是网络信息的中转站。在我们正常请求一个网站时,是发送了请求给Web服务器,Web服务器把响应传回给我们。如果设置了代理服务器,实际上就是在本机和服务器之间搭建了一个桥,此时本机不是直接向Web服务器发起请求,而是向代理服务器发出请求,请求会发送给代理服务器,然后由代理服务器再发送给Web服务器,接着由代理服务器再把Web服务器返回的响应转发给本机。这样我们同样可以正常访问网页,但这个过程中Web服务器识别出的真实IP就不再是我们本机的IP了,就成功实现了IP伪装,这就是代理的基本原理。
2.
代理的作用
那么,代理有什么作用呢?我们可以简单列举如下。 突破自身IP访问限制,访问一些平时不能访问的站点。 访问一些单位或团体内部资源:比如使用教育网内地址段免费代理服务器,就可以用于对教育网开放的各类FTP下上传,以及各类资料查询共享等服务。 提高访问速度:通常代理服务器都设置一个较大的硬盘缓冲区,当有外界的信息通过时,同时也将其保存到缓冲区中,当其他用户再访问相同的信息时,则直接由缓冲区中取出信息,传给用户,以提高访问速度。 隐藏真实IP:上网者也可以通过这种方法隐藏自己的IP,免受攻击。对于爬虫来说,我们用代理就是为了隐藏自身IP,防止自身的IP被封锁。
3.
代理分类(1)
根据协议区分
根据代理的协议,代理可以分为如下类别。 FTP代理服务器:主要用于访问FTP服务器,一般有上传、下以及缓存功能,端口一般为21、2121
等。 HTTP代理服务器:主要用于访问网页,一般有内容过滤和缓存功能,端口一般为80、8080、3128
等。 SSL / TLS代理:主要用于访问加密网站,一般有SSL或TLS加密功能(高的支持128位加密强度),端口一般为443。 RTSP代理:主要用于访问Real流媒体服务器,一般有缓存功能,端口一般为554。 Telnet代理:主要用于telnet远程控制(黑客 ** 计算机时常用于隐藏身份),端口一般为23。 POP3 / SMTP代理:主要用于POP3 / SMTP方式收发邮件,一般有缓存功能,端口一般为110 / 25。 SOCKS代理:只是单纯传递数据包,不关心具体协议和用法,所以速度快很多,一般有缓存功能,端口一般为1080。 SOCKS代理协议又分为SOCKS4和SOCKS5,前者只支持TCP,而后者支持TCP和UDP,还支持各种身份验证机制、服务器端域名解析等。简单来说,SOCK4能做到的SOCKS5都可以做到,但SOCKS5能做到的SOCK4不一定能做到。 (
    2)
根据匿名程度区分
根据代理的匿名程度,代理可以分为如下类别。 高度匿名代理:会将数据包原封不动地转发,在服务端看来就好像真的是一个普通客户端在访问,而记录的IP是代理服务器的IP。 普通匿名代理:会在数据包上做一些改动,服务端上有可能发现这是个代理服务器,也有一定几率追查到客户端的真实IP。代理服务器通常会加入的HTTP头有HTTP_VIA和HTTP_X_FORWARDED_FOR。 透明代理:不但改动了数据包,还会告诉服务器客户端的真实IP。这种代理除了能用缓存技术提高浏览速度,能用内容过滤提高安全性之外,并无其他显著作用,最常见的例子是内网中的硬件防火墙。 间谍代理:指组织或个人创建的用于记录用户传输的数据,然后进行研究、监控等目的的代理服务器。

有效代码:

import requests
import random
def getResponse(url):
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.75 Safari/537.36',
        'Connection': 'keep-alive',
        'Accept-language': 'zh-CN,zh;q=0.9',
        'Accept-encoding': 'gzip, deflate, br',
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
        'Upgrade-insecure-requests': "1"
    }
    # 设置代理ip
    porxy_list = [
        {"http": "http://121.237.148.95:3000"}, {"http": "http://1.202.116.62:8118"},
        {"http": "http://218.75.102.198:8000"},
        {"http": "http://49.83.243.248:8118"}, {"http": "http://39.137.69.7:8080"},
        {"http": "http://221.180.170.104:8080"},
        {"http": "https://101.4.136.34:81"},
    ]
    proxy = random.choice(porxy_list)
    print(proxy)
    response = requests.get(url, headers=headers, proxies=proxy,timeout=2)
    if response.status_code==requests.codes.ok:  # 响应状态码是200 或者Requests还附带了一个内置的状态码查询对象
        return response.text
    return None
url = 'https://www.taobao.com/'

参考文献

1.https://y4tacker.blog.csdn.net/article/details/107199173
2. https://catwing.blog.csdn.net/article/details/81667529
3. https://blog.csdn.net/xc_zhou/article/details/81021496?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522162427821216780366531236%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=162427821216780366531236&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~top_positive~default-1-81021496.pc_search_result_control_group&utm_term=python%E7%9A%84requests&spm=1018.2226.3001.4187
4. https://itrhx.blog.csdn.net/article/details/99747704
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值