python 代理池

#coding=utf-8
import requests
import re
import Queue
import MySQLdb
import gevent
from gevent.threadpool import ThreadPool

#def conn_sql():
    #conn=MySQLdb.connect(
        #host='localhost',
        #port=3306,
        #user='root',
        #passwd='1234',
       # db='zhihu',
      #  charset='uft8'
     #   )
    #cur=conn.cursor()
   # return conn,cur

def get_ip(text):
    '''针对西刺代理网页编码建立的规则,此规则只爬取HTTPS类型的代理地址。返回的格式 (ip,端口)'''
    rex=r'''<td class="country"><img src=.*?/></td>\s*?<td>(.*?)</td>\s*?<td>(.*?)</td>\s*?<td>\s*.*\s*</td>\s*?.*\s*?<td>HTTPS</td>'''
    ip=re.findall(rex,text)
    return ip

url=[
    'http://www.xicidaili.com/nn/1',
    'http://www.xicidaili.com/nn/2',
    'http://www.xicidaili.com/nt/1',
    'http://www.xicidaili.com/nt/2',
    'http://www.xicidaili.com/wn/1',
    'http://www.xicidaili.com/wn/2',
    'http://www.xicidaili.com/wt/1',
    'http://www.xicidaili.com/wt/2',
    ]
##爬取西刺代理各分类前两页
def create_pool(url):
    '''创建代理池,说白了就是代理列表.起初是打算用队列的,后来考虑到要验证每个代理,取出还要再插回去麻烦'''
    headers={
        'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
        'Accept-Language':'zh-CN,zh;q=0.8',
        'Cache-Control':'max-age=0',
        'Connection':'keep-alive',
        'Cookie':'_free_proxy_session=BAh7B0kiD3Nlc3Npb25faWQGOgZFVEkiJWIxYjAwZDkxMDE1NWRiYjAwMTBjZTFjZGY3YjJjMjE4BjsAVEkiEF9jc3JmX3Rva2VuBjsARkkiMXE5aGt6cDdPU2tyajI4RjB2dENmZS9aT0RMTDVTK1R2d1hTMDVjUGYxT0E9BjsARg%3D%3D--a913aa7825c13fec2fdfd583519c69b3345ab87b; CNZZDATA1256960793=284076470-1468134027-null%7C1468307148',
        'DNT':'1',
        'Host':'www.xicidaili.com',
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.75 Safari/537.36'
        }
    ##自定义头,找个浏览器开发者模式复制一下
    data=[]
    #用来存储抓取的原始数据
    proxy_pool=[]
    #初始化代理列表
    #p={'http':'81.139.247.236:80'}
    ##p是一个http代理,有时爬多了西刺代理就禁止访问了
    ###用代理去爬代理挺那啥的。。所以后面实际使用中可视网站更新状况自定义轮询代理网站的时间
    for i in url:
        r=requests.get(i,headers=headers)#如果用代理把代理加进去
        text=r.text
        print r.status_code
        ip=get_ip(text)
        data.extend(ip)
        #用extend是为了格式上方便,方便遍历
    for i in data:
        ip=i[0]+':'+i[1]
        #组合ip+port
        proxy_pool.append(ip)
        #存在表里
    return proxy_pool

def test_proxy(ip,proxy_pool,headers):
    '''测试代理是否可用,免费的代理挺不稳定的。使用率较低'''
    try:
        r=requests.get('https://www.zhihu.com',proxies={'https':ip},headers=headers)
        status=r.status_code
        print 
        if status==200:
            print ip,'200'
        #主要根据返回的状态码判断
            
    except:
        proxy_pool.remove(ip)
        #这一步是抛弃队列用列表列表的直接原因
        #就感觉很省事。另外也可以避免参数在多个函数间传递的问题
        pass
    return proxy_pool
            
headers={
    'Accept':'text/html, application/xhtml+xml, image/jxr, */*',
    'Accept-Language':'zh-CN',
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko',
    'Host':'www.zhihu.com',
    'Connection':'Keep-Alive',
    'Cookie':'n_c=1; __utmc=51854390; q_c1=6879d12c58854a25a7baa63bd647c17f|1468227004000|1468227004000; l_cap_id="NmIzZDAxM2IyNDA4NDUxYmFiYzRhZjBhYjBiZGIxMGM=|1468227004|d39c2d05c63f5a30ac21b24beb6a48e0648c70bb"; cap_id="OWUyMGVhNTAxNjExNDQ5YWE2M2EyODkwYjdkOWNjOGQ=|1468227004|76ebb55701b78072ac6a2ee080d5f0c5dadc292b"; d_c0="AJBAWDZdNgqPTlKnUijCIex0WCt8K2FtfhM=|1468227005"; _zap=884bd241-ddd0-430a-b8ab-97a026efabd0; __utma=51854390.2013250603.1468227006.1468227006.1468227006.1; __utmb=51854390.11.9.1468227042707; __utmz=51854390.1468227006.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utmv=51854390.000--|3=entry_date=20160711=1; __utmt=1; _xsrf=179e610b488529dd83ffbfb4bc6a6beb; _za=fa119adb-56a9-4213-a9bc-438a300afd85',
    }
#定义一个访问知乎的头

def multi_thread_test(proxy_pool):
    '''上面那个测试可以直接用但时间太长了。所以用并发来解决。不过总体时间还是挺长的'''
    n=len(proxy_pool)
    pool=ThreadPool(n)
    #最大的线程数等于代理总数,这样就可以所有代理同时跑
    for ip in proxy_pool:
        pool.spawn(test_proxy,ip,proxy_pool,headers)
    gevent.wait()
    return proxy_pool

def test():
    '''测试结果'''
    from time import *
    t1=time()
    proxy_pool=create_pool(url)
    proxy_pool=multi_thread_test(proxy_pool)
    print proxy_pool
    t2=time()
    print t2-t1
test()
    
准备是用来爬知乎的,所以测试网站用的是知乎而不是一些ip查询站点。对于这测试点我觉得你要用在哪就用哪个网站测试比较好。
代码在2.7x上课直接运行。对于整体结构性没怎么在意。。
其实一直想考虑写个calss 来结构化一下。。但感觉不到必要性。。。


  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值