爬虫工具之selenium(五)-建立代理IP池

主要思路是分两步:第一步判断代理IP是否有效,第二步爬取免费网站代理IP,第三步循环判断爬取的代理IP是否有效

一、判断代理IP是否有效

import random
import requests
import re

'''
设计思路:利用http://icanhazip.com/返回的IP进行校验,如返回的是代理池的IP,说明代理有效,否则实际代理无效(也可以利用)
'''

# 代理ip池:proxies主要指定代理
PROXIES_NEW = {
   
    "https": [
        "https://175.42.129.107:9999",
        "https://115.221.246.181:9999",
  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
使用Selenium进行网络爬取时,可以通过代理IP来隐藏自己的真实IP地址,以避免被目标网站封禁或限制访问。以下是使用Selenium代理IP进行爬取的基本步骤: 1. 安装Selenium和相关依赖库: ```python pip install selenium pip install webdriver_manager ``` 2. 下载浏览器对应的驱动程序,例如Chrome浏览器的驱动程序可以从以下链接下载: - [ChromeDriver for Windows](https://sites.google.com/a/chromium.org/chromedriver/downloads) - [ChromeDriver for macOS](https://sites.google.com/a/chromium.org/chromedriver/downloads) - [ChromeDriver for Linux](https://sites.google.com/a/chromium.org/chromedriver/downloads) 3. 导入相关库和设置代理IP: ```python from selenium import webdriver from selenium.webdriver.chrome.options import Options from webdriver_manager.chrome import ChromeDriverManager # 设置代理IP proxy = '127.0.0.1:8888' # 配置Chrome浏览器参数 chrome_options = Options() chrome_options.add_argument('--proxy-server=http://{}'.format(proxy)) # 启动浏览器 driver = webdriver.Chrome(ChromeDriverManager().install(), options=chrome_options) ``` 4. 使用代理IP进行访问: ```python driver.get('https://www.example.com') ``` 这样就可以使用代理IP进行网络爬取了。需要注意的是,代理IP的使用可能会被目标网站识别并采取限制措施,因此需要谨慎使用。同时,代理IP的来源需要保证合法性和可靠性,以免被涉嫌违法行为。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值