使用xpath定位代理网站ip地址以及端口, 开启进程池,多进程进行爬取可用代理ip。大大节约爬取时间

import requests
from lxml import etree
import time
import multiprocessing

# 耗时 84.26855897903442 5
# 耗时 44.181687355041504 10
# 耗时 29.013262033462524 20
# 耗时 22.825448036193848 50


def get_all_proxy(queue):
    url = 'http://www.xicidaili.com/nn/1'

    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',
    }
    response = requests.get(url, headers=headers)

    # with open('song.html', 'wb') as f:
    #     f.write(response.content)

    html_ele = etree.HTML(response.text)

    ip_eles = html_ele.xpath('//table[@id="ip_list"]/tr/td[2]/text()')
    port_ele = html_ele.xpath('//table[@id="ip_list"]/tr/td[3]/text()')

    # print(len(ip_eles))
    # print(len(port_ele))
    proxy_list = []
    for i in range(0,len(ip_eles)):
        proxy_str = 'http://' + ip_eles[i] + ':' + port_ele[i]
        #proxy_list.append(proxy_str)
        #print(proxy_str)
        queue.put(proxy_str)

def check_one_proxy(proxy):
    #print('人头已经打到这里')
    try:
        #proxy = proxy_and_queue
        url = 'http://www.baidu.com/s?wd=ip'
        proxy_dict = {
            'http': proxy
        }
        try:
            response = requests.get(url, proxies=proxy_dict, timeout=5)
            if response.status_code == 200:
                print('这个人头送的好' + proxy)
                #queue.put(proxy)
                return proxy
            else:
                print('这个人头没送好')
                #queue.put(proxy)
                return proxy
        except:
            #print('这个人头耶耶耶没送好--------------->')
            return None
    except Exception as e:
        print(e)

# def check_all_proxy(proxy_list):
#     valid_proxy_list = []
#     for proxy in proxy_list:
#         if check_one_proxy(proxy):
#             valid_proxy_list.append(proxy)
#
#     return valid_proxy_list


if __name__ == '__main__':
    start_time = time.time()
    # 创建队列
    q = multiprocessing.Queue()
    # pool 进程池中, 要用的是下面的这个queue
    #result_q = multiprocessing.Manager().Queue()
    # 获取所有代理
    p = multiprocessing.Process(target=get_all_proxy, args=(q,))
    p.start()
    # proxy_list = get_all_proxy()
    # 检测代理的可用性

    pool = multiprocessing.Pool(50)
    result_list = []
    while True:
        try:
            proxy_str = q.get(timeout=5)
            #print('人头送到这里了', proxy_str)
        except:
            break
        #print('apply_async 之前')
        #proxy_and_queue = [proxy_str, result_q]
        proxy_res = pool.apply_async(check_one_proxy, (proxy_str,))
        result_list.append(proxy_res)
    #valid_proxy_list = check_all_proxy(proxy_list)

    valid_proxy_list = []
    for proxy_res in result_list:
        result = proxy_res.get()
        if result is None:
            pass
        else:
            valid_proxy_list.append(result)
        #print(result)

    print('All proxy we can get:')
    print(valid_proxy_list)
    pool.close()
    pool.join()
    p.join()


    end_time = time.time()
    print('--'*30)
    # print(valid_proxy_list)
    print('耗时:' + str(end_time-start_time))
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
JAVA selenium 设置ip代理: 1. 首先需要下载selenium webdriver,可以在官网下载,或者使用maven仓库下载。 2. 下载好webdriver后,需要下载对应浏览器的driver,比如Chrome浏览器需要下载chromedriver。 3. 在代码中设置代理,可以使用第三方库ProxyPool,具体使用方法可以参考官方文档。 4. 在使用selenium webdriver时,需要设置代理,可以通过以下代码实现: ```java ChromeOptions options = new ChromeOptions(); options.addArguments("--proxy-server=http://ip:port"); WebDriver driver = new ChromeDriver(options); ``` 其中,ip和port需要替换成代理中的ip端口。 webmagic爬取网页数据: 1. 首先需要下载webmagic库,可以在maven仓库中下载。 2. 创建一个Java类,并继承PageProcessor类,实现其中的方法,如下所示: ```java public class ExamplePageProcessor implements PageProcessor { private Site site = Site.me().setRetryTimes(3).setSleepTime(1000); @Override public void process(Page page) { // 解析页面数据 page.putField("title", page.getHtml().xpath("//title").toString()); page.putField("content", page.getHtml().xpath("//div[@class='content']").toString()); // 添加要爬取的url page.addTargetRequests(page.getHtml().links().regex("(https://www\\.example\\.com/[\\w\\-]+)").all()); } @Override public Site getSite() { return site; } } ``` 3. 在main方法中,创建一个Spider对象,并设置要爬取的url和PageProcessor,如下所示: ```java public static void main(String[] args) { Spider.create(new ExamplePageProcessor()) .addUrl("https://www.example.com") .run(); } ``` 4. 运行程序,爬取数据。数据会保存在Page对象中,可以通过page.putField()方法保存。可以通过page.getTargetRequests()方法获取要爬取的url,可以通过page.getResultItems()方法获取保存的数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值