【python3】建立爬虫代理ip池

起因

一般来说,我们在爬取其他网站的数据的时候,会遇到ip被限制的情况,这时候就需要代理ip池进行处理了。

代码块

我们这里使用了西刺代理池进行模拟,直接上代码:

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import requests, threading, datetime
from bs4 import BeautifulSoup
import urllib3
urllib3.disable_warnings(urllib3.exceptions.InsecureRequestWarning)


# ip清洗
def checkip(targeturl,ip):
    proxies = {"http": "http://"+ip, "https": "http://"+ip}  # 代理ip
    try:
        response=requests.get(url=targeturl, verify=False, proxies=proxies,headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'},timeout=5).status_code
        if response == 200:
            return True
        else:
            return False
    except:
        return False

# 免费代理 XiciDaili
def findip(type,pagenum,targeturl): # ip类型,页码,目标url,存放ip的路径
    list={'1': 'http://www.xicidaili.com/nt/', # xicidaili国内普通代理
          '2': 'http://www.xicidaili.com/nn/', # xicidaili国内高匿代理
          '3': 'http://www.xicidaili.com/wn/', # xicidaili国内https代理
          '4': 'http://www.xicidaili.com/wt/'} # xicidaili国外http代理
    url = list[str(type)]+str(pagenum) # 配置url
    html=requests.get(url=url, headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'},timeout = 5).text
    soup = BeautifulSoup(html, 'lxml')
    all = soup.find_all('tr', class_='odd')
    for i in all:
        t = i.find_all('td')
        ip = t[1].text+':'+t[2].text
        is_avail = checkip(targeturl, ip)
        if is_avail == True:
            # write(path=path,text=ip)
            print(ip)

def getip(targeturl):
     # truncatefile(path) # 爬取前清空文档
     start = datetime.datetime.now() # 开始时间
     threads=[]
     for type in range(4):
         for pagenum in range(10):
             t=threading.Thread(target=findip,args=(type+1,pagenum+1,targeturl))
             threads.append(t)
     print('开始爬取代理ip')

     for s in threads:   # 开启多线程爬取
         s.start()

     for e in threads:  # 等待所有线程结束
         e.join()
     print('爬取完成')

if __name__ == '__main__':
    targeturl = 'https://blog.csdn.net/u011928550/article/details/60154191' # 验证ip有效性的指定url
    getip(targeturl)

  • 运行结果:

在这里插入图片描述

你可以将targeturl修改为你需要访问的地址,就行了。

--------------------- 本文来自 hxm6621315 的CSDN 博客 ,全文地址请点击:https://blog.csdn.net/hxm6621315/article/details/82855965?utm_source=copy

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值