数据采集之--换个IP

很多网站会检测某一段时间某个IP的访问次数(通过流量统计,系统日志等),如果访问次数多的不像正常人,它会禁止这个IP的访问。所以我们可以设置一些代理服务器,每隔一段时间换一个代理,就算IP被禁止,依然可以换个IP继续爬取。

使用代理IP,这是爬虫/反爬虫的第二大招,通常也是最好用的。

request中通过ProxyHandler来设置使用代理服务器,代理的使用很简单,可以付费在专业网站上购买稳定的ip地址,也可以在网络上寻求免费的ip代理。但是,这些免费开放代理一般会有很多人都在使用,而且代理有寿命短,速度慢,匿名度不高,HTTP/HTTPS支持不稳定等缺点(免费没好货)。
免费的开放代理获取基本没有成本,我们可以在一些代理网站上收集这些免费代理,测试后如果可以用,就把它收集起来用在爬虫上面。
免费短期代理网站举例:
西刺免费代理IP:http://www.xicidaili.com/
快代理免费代理:https://www.kuaidaili.com/free/inha/
全网代理IP:http://www.goubanjia.com/
如果代理IP足够多,就可以像随机获取User-Agent一样,随机选择一个代理去访问网站。

#引入随机模块
import requests,random
base_url = 'http://langlang2017.com'
#构建代理ip列表,里面一般包含http与HTTPS两种协议的代理ip,为了适应不同的网站,
#该模块会根据所要访问的网站的协议类型自动的选择合适的ip
procxy = [
    {'http':'HTTP://121.52.208.200:808',
    'https':'HTTPS://111.177.106.231:9999'
     },
    {'http':'HTTP://180.119.68.10:9999',
    'https':'HTTPS://123.169.34.240:4366'
    }
]
#随机选择列表中的字典,直到匹配上可以使用的ip
http = random.choice(procxy)
#timeout是超时时间,因为连接某些代理会比较慢,设置超时时间避免等待时间过长
response = requests.get(url=base_url,proxies=http,timeout=20)
contents = response.content.decode('utf-8')
#写入文件,当然这一步可有可无
with open('12306.html','w',encoding='utf-8')as f:
    f.write(contents)

所以,专业爬虫工程师或爬虫公司会使用高品质的私密代理,这些代理通常需要找专门的代理供应商购买,再通过用户名/密码授权使用(舍不得孩子套不到狼)。

当然如果出现下面这个情况,不要怀疑代码写错了,而是代理ip不能用,这时候要么换ip要么就是花钱买稳定的ip
在这里插入图片描述

  • 4
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值