IP代理爬取

# -*- coding:utf-8 -*-
import requests
import pymysql
from fake_useragent import UserAgent
# Selector 引入
from scrapy.selector import Selector
'''
1.爬虫每次发起请求需要从代理池中提取一个可用代理,如果提取的代理不可用,从代理池中删除
2.当代理池中的代理少于某个程度,需要重新爬取一部分代理,添加到代理池中
'''
ua = UserAgent()


conn = pymysql.connect(
    host= '127.0.0.1',
    user= 'root',
    password='123456',
    db = 'ipdb',
    port=3306
)
cursor = conn.cursor()




def crawler_ip(url):
    # 准备请求头
    headers = {
        'User-Agent':ua.random,
        'Host':'www.xicidaili.com'
    }
    response = requests.get(url=url,headers=headers)
    # 正则 bs4 xpath
    # 根据返回的数据创建Selector对象
    selector =Selector(text=response.text)
    # 通过xpath查找数据
    trs = selector.xpath("//table[@id='ip_list']/tr")
    for tr in trs[1:]:
        ip = tr.xpath('td[2]/text()').extract_first('')
        port = tr.xpath('td[3]/text()').extract_first('')
        life_time = tr.xpath('td[9]/text()').extract_first('')
        ip_type = tr.xpath('td[6]/text()').extract_first('')
        if '分钟' not in life_time:
            # 将ip和端口插入数据
            insert_ip(ip,port,ip_type)




def insert_ip(ip,port,ip_type):


    # 1.根据ip查询数据,如果查询有结果说明数据库中已经有这个信息
    sql = "SELECT * FROM iptable WHERE ip='%s'"%ip
    res = cursor.execute(sql)
    if res != 0:
        print('该ip已存在!')
        return
    # 插入数据之前,需要判断ip是否已经存在,如果已经存在,就不用再次插入数据


    sql = "INSERT INTO iptable VALUES('%s','%s','%s')"%(ip,port,ip_type)
    cursor.execute(sql)
    conn.commit()


# 获取可用的ip
def get_random_ip():
    # 获取ip之前,判断ip个数
    sql = "SELECT * FROM iptable"
    rs = cursor.execute(sql)
    if rs < 20:
        # 重新获取一次
        ip_request()


    # 随机从数据库中取出一条数据
    sql = "SELECT * FROM iptable ORDER BY RAND() LIMIT 1"
    cursor.execute(sql)
    rs = cursor.fetchone()
    # 取出ip信息
    ip = rs[0]
    port = rs[1]
    ip_type = rs[2]
    # 测试这个ip是否用
    try:
        # 准备
        proxy_dict = {
            ip_type.lower():'{}://{}:{}'.format(ip_type.lower(),ip,port)
        }
        # requests使用代理发送请求
        response = requests.get('http://www.baidu.com',proxies=proxy_dict,timeout = 0.5)
    except Exception as e:
        print(ip,'不可用!')
        # 删除该ip
        delete_ip(ip)
        # 重新获取一个ip
        get_random_ip()
    else:
        return '{}:{}'.format(ip,port)


def delete_ip(ip):
    sql = "DELETE FROM iptable WHERE ip='%s'"%ip
    cursor.execute(sql)
    conn.commit()


# 获取ip的请求函数
def ip_request():


    for x in range(1, 6):
        print('正在获取第%s页ip' % x)
        # 拼接地址
        url = 'http://www.xicidaili.com/nn/%s' % x
        crawler_ip(url)


if __name__ == '__main__':


    ip = get_random_ip()
    print(ip)











我可以告诉你如何使用代理IP爬取豆瓣电影网,但请注意这可能涉及到一些法律和道德问题,因此请确保你有合法的许可和良好的意图。 首先,你需要获取一些代理IP地址,你可以从一些付费的代理商那里购买,也可以使用一些免费的代理网站。 然后,你需要使用编程语言例如Python来编写爬虫程序。在程序中,你需要设置代理IP地址,使得每次请求都会使用不同的IP地址。 具体来说,你可以使用Python的requests库来发送HTTP请求,并在请求头中设置代理IP地址。以下是一个简单的示例代码: ```python import requests # 代理IP地址 proxies = { 'http': 'http://127.0.0.1:8080', 'https': 'https://127.0.0.1:8080', } # 请求头 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36' } # 发送请求 response = requests.get('https://movie.douban.com/', headers=headers, proxies=proxies) # 输出响应内容 print(response.text) ``` 在这个示例代码中,我们使用了一个代理IP地址 `http://127.0.0.1:8080`,并将其设置为HTTP和HTTPS协议的代理。我们还设置了一个请求头,以伪装成一个浏览器发送请求。最后,我们使用requests库发送HTTP请求,并输出响应内容。 请注意,使用代理IP爬取网站可能会遇到一些问题,例如代理IP可能不稳定,可能会被网站封禁等等。因此,你需要小心使用,并确保你的行为合法和道德。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值