Python爬虫抓取代理IP和验证

下面利用gevent 这个异步并发库,来实现并发验证代理的有效性。

# coding:utf-8

	from gevent import monkey
	monkey.patch_all()

	import urllib2
	from gevent.pool import Pool


	import requests
	from bs4 import BeautifulSoup


	class SpiderProxy(object):
	    """
	    从http://www.xicidaili.com/wt 取代理ip
	    """
	    headers = {
	        "Host": "www.xicidaili.com",
	        "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:47.0) Gecko/20100101 Firefox/47.0",
	        "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",
	        "Accept-Language": "en-US,en;q=0.5",
	        "Accept-Encoding": "gzip, deflate",
	        "Referer": "http://www.xicidaili.com/wt/1",
	    }

	    def __init__(self, session_url):
	        self.req = requests.session()
	        self.req.get(session_url)

	    def get_pagesource(self, url):
	        '''取得html pagesource'''
	        html = self.req.get(url, headers=self.headers)
	        return html.content

	    def get_all_proxy(self, url, n):
	        ''' 取得所有1-n页上的代理IP'''
	        data = []
	        for i in range(1, n):
	            html = self.get_pagesource(url + str(i))
	            soup = BeautifulSoup(html, "lxml")

	            table = soup.find('table', id="ip_list")
	            for row in table.findAll("tr"):
	                cells = row.findAll("td")
	                tmp = []
	                for item in cells:

	                    tmp.append(item.find(text=True))
	                try:
	                    tmp2 = tmp[1:2][0]
	                    tmp3 = tmp[2:3][0]
	                    tmp4 = tmp[5:6][0]
	                    data.append({tmp4: tmp2 + ":" + tmp3})
	                except Exception as e:
	                    pass
	        return data


	class IsActivePorxyIP(object):
	    """类组合
	     用gevent 异步并发验证 代理IP是不是可以用
	    """

	    def __init__(self, session_url):
	        self.proxy = SpiderProxy(session_url)
	        self.is_active_proxy_ip = []

	    def probe_proxy_ip(self, proxy_ip):
	        """代理检测"""
	        proxy = urllib2.ProxyHandler(proxy_ip)
	        opener = urllib2.build_opener(proxy)
	        urllib2.install_opener(opener)
	        try:
	            html = urllib2.urlopen('http://1212.ip138.com/ic.asp')
	            # print html.read()
	            if html:
	                self.is_active_proxy_ip.append(proxy_ip)
	                return True
	            else:
	                return False
	        except Exception as e:
	            return False


	if __name__ == '__main__':
	    session_url = 'http://www.xicidaili.com/wt/1'
	    url = 'http://www.xicidaili.com/wt/'

	    p_isactive = IsActivePorxyIP(session_url)
	    proxy_ip_lst = p_isactive.proxy.get_all_proxy(url, 5)

	    # 异步并发
	    pool = Pool(20)
	    pool.map(p_isactive.probe_proxy_ip, proxy_ip_lst)
	    print p_isactive.is_active_proxy_ip

这个网站中取得的很多是透明代理,在生产环境中最好采集匿名代理。

这个代码只是演示,结果没有写到文件或数据库中,只是print 输出。


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值