利用快代理搭建自己的代理池(妈妈再也不用担心IP被封了)

利用快代理搭建属于自己的IP代理池

快代理url如下:https://www.kuaidaili.com/free

注:仅用来记录自己的学习!!!
不要随意用于商业用途

看到网上搭的代理池对小白不太友好,于是搭建了一个属于自己的IP代理池,就不用担心自己的IP被反爬封禁了!!!

知识点:

  1. 利用faker使得user-agent随机化
  2. 将数据保存到MongoDB中可以随时调用
  3. 从数据库中随意选择一个IP用来代替本地IP
# -*- coding = utf-8 -*-
# @Time:2020-10-07 15:20
# @Author:来瓶安慕嘻
# @File:搭建代理池.py
# @开始美好的一天吧 @Q_Q@、


"""
简介:
    1.利用快代理搭建属于自己的IP代理池
    2.将爬取的有效的IP存储到MongoDB中
    3.从数据库MongoDB中随机选择一个有效IP

调用本程序说明:
    1.首先要调用 get_proxy(page_num) 并将其传给具体边变量
    2.其次调用 read_ip 不需要传参   并将其传给具体变量

"""
# ----------------------------------------------------------------------------------------------------------------------

import random
import requests
from lxml import etree
import time
from faker import Factory
from pymongo import MongoClient


# -----------------------------------------生成随机的请求头 User-Agent-----------------------------------------------------
def get_user_agent(num):
    factory = Factory.create()
    user_agent = []
    for i in range(num):
        user_agent.append({'User-Agent': factory.user_agent()})
    return user_agent


# -----------------------------------------爬取代理IP  主要爬取快代理-----------------------------------------------------
def get_proxy(page_num):
    """
    爬取代理IP 并检验IP的有效性
    :param page_num: 需要爬取的页数
    :return: proxies_list_use: 返回爬取的有效IP地址
    """
    headers = get_user_agent(5)

    # ip的格式 {'协议类型':'ip:端口'}
    proxies_list = []

    for i in range(1, 5):
        print('正在爬取代理第{}页的所有代理ip'.format(i))
        header_i = random.randint(0, len(headers) - 1)
        headers = headers[header_i]
        base_url = 'https://www.kuaidaili.com/free/inha/{}/'.format(i)

        page_text = requests.get(url=base_url, headers=headers).text

        tree1 = etree.HTML(page_text)

        tr_list = tree1.xpath('//table[@class="table table-bordered table-striped"]/tbody/tr')

        for tr in tr_list:
            http_type = tr.xpath('./td[@data-title="类型"]/text()')[0]
            ip = tr.xpath('./td[@data-title="IP"]/text()')[0]
            port = tr.xpath('./td[@data-title="PORT"]/text()')[0]

            proxies = {http_type: ip + ':' + port}
            proxies_list.append(proxies)
            # print(proxies)
            time.sleep(1)

    proxies_list_use = check_ip(proxies_list)

    save_ip(proxies_list_use)

    return proxies_list_use


# -----------------------------------------利用百度检验 爬取的代理IP的有效性-------------------------------------------------
def check_ip(proxies_list):
    """
    检测代理IP的质量 直接利用爬取的代理IP去访问百度 设置响应时间为0.1
    :param proxies_list:
    :return:
    """
    headers = get_user_agent(5)
    header_i = random.randint(0, len(headers) - 1)
    headers = headers[header_i]
    can_use = []
    for proxy in proxies_list:

        try:
            response = requests.get('https://www.baidu.com', headers=headers, proxies=proxy, timeout=0.1)
            if response.status_code == 200:
                can_use.append(proxy)
        except Exception as e:
            print('代理IP的错误为:', e)

    return can_use


# -----------------------------------------持久化存储到 MongoDB 中 便于后期从里面拿到有效的代理IP------------------------------
def save_ip(ip_list):
    """
    将爬取到代理IP存储到MongoDB中
    :param ip_list: 爬取到的有效IP (列表)
    :return:
    """
    client = MongoClient()
    time_info = time.strftime("%Y-%m-%d", time.localtime())
    collection = client['快代理'][time_info + '爬取的代理IP']
    collection.insert_many(ip_list)


# -----------------------------------------读取MongoDB 中的有效IP 用来伪装IP地址爬取其他的网站url------------------------------
def read_ip():
    """
    从MongoDB中随机调用一个有效的IP
    :return:proxy 返回数据库中随机的有效IP地址
    """
    client = MongoClient()
    time_info = time.strftime("%Y-%m-%d", time.localtime())
    collection = client['快代理'][time_info + '爬取的代理IP']
    ip_list = list(collection.find())

    proxy_i = random.randint(0, len(ip_list) - 1)
    proxy = {ip_list[proxy_i]['http_type']: ip_list[proxy_i]['ip_port']}

    return proxy


# -------------------------------------------------主函数main()----------------------------------------------------------
def main():
    useful_ip = get_user_agent(5)
    proxy = read_ip()
  • MongoDB中储存的数据如下(2020-10-07爬取的代理IP

在这里插入图片描述

一入爬虫深似海,学习成本实在太大了!!!

  • 1
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建Selenium IP代理,你可以按照以下步骤进行操作: 1. 首先,你需要安装selenium-wire模块。你可以使用以下命令在终端中安装该模块: ```pip install selenium-wire``` 2. 接下来,你需要导入所需的包和模块。例如,你可以导入selenium、fake_useragent和selenium.webdriver.chrome.options模块。 ``` from selenium import webdriver from fake_useragent import UserAgent from selenium.webdriver.chrome.options import Options ``` 3. 设置代理服务器的配置和用户代理头。你可以使用ChromeOptions()来设置代理服务器和添加用户代理头。 ``` ops = Options() headers = {'User-Agent': UserAgent().random} ``` 4. 创建一个WebDriver实例,并使用指定的驱动程序路径来初始化。例如,你可以使用webdriver.Chrome()来创建一个Chrome浏览器的实例。 ``` driver = webdriver.Chrome(r'D:\360安全浏览器下载\chromedriver.exe') ``` 5. 获取代理IP地址并将其添加到代理服务器中。你可以使用webdriver的get()方法来打开代理IP地址的网页,并使用find_element_by_xpath()方法来获取代理IP地址的文本。然后,你可以使用add_argument()方法将代理IP地址添加到ChromeOptions中的代理服务器选项中。 ``` api_url = '让你复制的代理api链接' driver.get(api_url) a = driver.find_element_by_xpath('/html/body/pre').text # 获取代理 ops.add_argument('--proxy-server=http://%s' % a) # 添加代理 ``` 6. 清除浏览器的cookies。你可以使用delete_all_cookies()方法来清除浏览器的cookies。 ``` driver.delete_all_cookies() # 清除cookies ``` 7. 打开你想要使用代理IP访问的网页,并执行你需要的操作。例如,你可以使用get()方法打开淘宝网并在搜索框中输入关键字。 ``` driver.get('https://www.taobao.com/') driver.find_element_by_name('q').send_keys('华为手机') ``` 请注意,上述代码仅供参考,你需要根据自己的实际情况进行适当的修改和调整。确保你已经正确安装了selenium-wire模块,并且已经下载和配置了Chrome驱动程序。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [selenium使用代理IP](https://blog.csdn.net/weixin_46211269/article/details/123251070)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值