Python爬虫(代理的使用)

好多网站都有反爬措施,例如很多网站会检测某一段时间某一个IP的访问次数太过于频繁,就有可能会禁止这个IP的访问。当然面对这种情况可定也有相应的措施,我们只要隔一段时间换一个IP就可以了。因此我们就需要一些代理服务器,每隔一段时间换一个代理,就算IP被禁止,依然可以换个IP继续爬。

在python中,可以使用urllib2中的ProxyHandler来设置使用代理服务器,下面通过代码说明如何来使用代理:

这里写图片描述

# coding=utf-8
import urllib2

#构建了两个代理Handler,一个代理IP,一个没有代理IP

httpproxy_handler = urllib2.ProxyHandler({"http":"124.88.67.81:80"})
nullproxy_handler = urllib2.ProxyHandler({})

#定义一个代理开关

proxySwitch = False
# 通过urllib2.build_opener()方法使用这些代理Hanlder对象,创建自定义opener对象
# 根据代理开关是否打开,使用不同的代理模式
if proxySwitch:
    opener = urllib2.build_opener(httpproxy_handler)
else:
    opener = urllib2.build_opener(nullproxy_handler)

request = urllib2.Request("http://www.baidu.com/")
# 使用opener.open()方法发送请求才使用自定义的代理,而urlopen()则不使用自定义代理。
response = opener.open(request)
# 就是将opener应用到全局,之后所有的,不管是opener.open()还是urlopen() 发送请求,都将使用自定义代理。
# urllib2.install_opener(opener)
# response = urlopen(request)


print response.read()

遇到问题:
当定义一个代理开关

proxySwitch = True 用代理时候运行报错;urllib2.URLError: <urlopen error [Errno 10060] >提示连接失败。

为了分析这一问题的原因,撸主采用了如下过程:
1、在浏览器里输入,可以正常打开,说明该站点是可以访问的。
2、同样的脚本放在公司的体验网上运行OK,说明脚本本身没有问题。

那就说明这个代理ip不能用所以导致这问题,选择不用ip代理proxySwitch = False;顺利爬到代码;

上面使用的是免费的开放代理,我们可以在一些代理网站上收集这些免费代理,测试后如果可以用,就把它收集起来用在爬虫上面。

免费代理网站:

西刺免费代理

快代理免费代理

全国代理ip

如果你有足够多的代理,可以放在一个列表中,随机选择一个代理去访问网站。如下:

import urllib2
import random

proxy_list = [
    {"http" : "124.88.67.81:80"},
    {"http" : "124.88.67.81:80"},
    {"http" : "124.88.67.81:80"},
    {"http" : "124.88.67.81:80"},
    {"http" : "124.88.67.81:80"}
]

# 随机选择一个代理
proxy = random.choice(proxy_list)
# 使用选择的代理构建代理处理器对象
httpproxy_handler = urllib2.ProxyHandler(proxy)

opener = urllib2.build_opener(httpproxy_handler)

request = urllib2.Request("http://www.baidu.com/")
response = opener.open(request)
print response.read()

上面使用的都是免费代理,不是很稳定,很多时候会出现无法使用的情况,这时候可以考虑使用私密代理。也就是向代理供应商购买代理,供应商会提供一个有效代理,并且有自己的用户名和密码,具体使用和免费代理一样,这是多了一个账户认证,如下:

# 构建具有一个私密代理IP的Handler,其中user为账户,passwd为密码
httpproxy_handler = urllib2.ProxyHandler({"http" : "user:passwd@124.88.67.81:80"})

上面就是使用urllib2设置代理的方法,不过看起来有些麻烦,下面我们看看如何使用reqursts来使用代理。

使用免费代理:

import requests

# 根据协议类型,选择不同的代理
proxies = {
  "http": "http://12.34.56.79:9527",
  "https": "http://12.34.56.79:9527",
}

response = requests.get("http://www.baidu.com", proxies = proxies)
print response.text

使用私密代理:

import requests

# 如果代理需要使用HTTP Basic Auth,可以使用下面这种格式:
proxy = { "http": "mr_mao_hacker:sffqry9r@61.158.163.130:16816" }

response = requests.get("http://www.baidu.com", proxies = proxy)

print response.text

这样看起来简单不少。

注:可以将账户密码写入环境变量以免泄露

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Python爬虫使用代理时可以通过以下步骤来实现。 首先,我们需要安装Python的请求库,比如requests或者urllib库,以便在爬取网页时发送请求。同时,我们还需要安装相应的代理库,比如selenium或者pyppeteer,以便在爬取时使用代理使用requests库的话,可以使用如下代码来设置代理: ``` import requests proxies = { 'http': 'http://127.0.0.1:8080', 'https': 'https://127.0.0.1:8080' } response = requests.get(url, proxies=proxies) ``` 其中,`http`和`https`指定了不同协议下的代理地址和端口号。你可以将上述代码放入你的爬虫代码中的合适位置,然后替换代理地址和端口号为你所使用代理地址和端口号。然后,通过`requests.get()`方法来发送请求。 如果使用selenium库的话,可以使用如下代码来设置代理: ``` from selenium import webdriver proxy_server = "127.0.0.1:8080" options = webdriver.ChromeOptions() options.add_argument('--proxy-server=%s' % proxy_server) driver = webdriver.Chrome(chrome_options=options) ``` 其中,`proxy_server`指定了代理地址和端口号。你可以将上述代码放入你的爬虫代码中的合适位置,然后替换代理地址和端口号为你所使用代理地址和端口号。然后,通过`webdriver.Chrome()`方法来创建一个带代理设置的浏览器实例,从而实现使用代理来进行网页爬取。 总结起来,Python爬虫使用代理的方法主要就是通过设置requests库或者selenium库的相应参数来指定代理地址和端口号,从而实现在爬取时使用代理
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值