爬取快代理的ip和port的简单实践

工具:pyspider

话不多说看下需要爬取的网站:https://www.kuaidaili.com/free/

 我们的需求是爬取上面的ip和port,这样就不用每次都去挨着复制

代码:

from pyspider.libs.base_handler import *


class Handler(BaseHandler):
    crawl_config = {
    }
    def __init__(self):
        self.url='https://www.kuaidaili.com/free/'
    
    @every(minutes=24 * 60)
    def on_start(self):
        for page in range(1,2613):
            self.crawl(self.url+'inha/'+str(page)+'/', callback=self.index_page,validate_cert=False,fetch_type='js')

    @config(age=10 * 24 * 60 * 60)
    def index_page(self, response):
       pass

运行一下,我们就能看到确实有2612页面

接一下该选择我们的ip和port,这里需要选择器,pyspider自带的选择器选不了,我去360极速浏览器拷贝:

代码:

#!/usr/bin/env python
# -*- encoding: utf-8 -*-
# Created on 2018-12-17 15:14:03
# Project: daili

from pyspider.libs.base_handler import *


class Handler(BaseHandler):
    crawl_config = {
    }
    def __init__(self):
        self.url='https://www.kuaidaili.com/free/'
    
    @every(minutes=24 * 60)
    def on_start(self):
        for page in range(1,2613):
            self.crawl(self.url+'inha/'+str(page)+'/', callback=self.index_page,validate_cert=False,fetch_type='js')

    @config(age=10 * 24 * 60 * 60)
    def index_page(self, response):
        IP=response.doc('#list > table > tbody > tr:nth-child(1) > td:nth-child(1)').text()
        PORT=response.doc('#list > table > tbody > tr:nth-child(1) > td:nth-child(2)').text()
        print IP
        
        
        

打印ip的结果:

写进文件中:

from pyspider.libs.base_handler import *


class Handler(BaseHandler):
    crawl_config = {
    }
    def __init__(self):
        self.url='https://www.kuaidaili.com/free/'
    
    @every(minutes=24 * 60)
    def on_start(self):
        for page in range(1,2613):
            self.crawl(self.url+'inha/'+str(page)+'/', callback=self.index_page,validate_cert=False,fetch_type='js')

    @config(age=10 * 24 * 60 * 60)
    def index_page(self, response):
        IP=response.doc('#list > table > tbody > tr:nth-child(1) > td:nth-child(1)').text()
        PORT=response.doc('#list > table > tbody > tr:nth-child(1) > td:nth-child(2)').text()
        with open('E:'+'/''ip_port.txt','wb')as f:
            f.write(IP)
            f.write(':')
            f.write(PORT)
            f.write('\r')
       

结果:

 

接下来进行批量导出

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
python编写的爬虫代理ip池.zip 运行环境 python3 和mysql数据库 下载使用 下载源码 git clone .git 或者在下载zip文件 安装依赖 pip install -i https://pypi.douban.com/simple/ -r requments.txt 创建数据库 mysql -uroot -p create database ippool charset=utf8; 配置项目 # ProxyIPPool/settings.py 基本的配置文件 # Database 使用mysql DATABASES = { 'default': { 'ENGINE': 'django.db.backends.mysql', 'NAME': 'ippool', # db name 'USER': 'root', # 用户名 'PASSWORD': 'password', # 密码 'HOST': 'localhost', 'PORT': 3306, } } # uwsgi.ini uwsgi.ini [uwsgi] # 监听的ip地址和端口 这里修改访问端口 http=0.0.0.0:8000 # 配置工程目录 项目所在的绝对路径 chdir=/path/to/proxy_ip_pool/ProxyIPPool/ # 配置项目的wsgi目录。相对于工程目录 wsgi-file=ProxyIPPool/wsgi.py 生成迁移文件和执行迁移文件 python manage.py makemigrations python manage.py migrate 启动 方法一 cd ProxyIPPool # 进入到manage.py这一级 python manage.py runserver # 启动后访问http://127.0.0.1:8000 方式二 # 使用uwgi 启动服务 这样可以后台启动 uwsgi --ini uwsgi.ini 可以使用方式一进行调试运行,方式二进行稳定运行 启动爬取代理ip的脚本 # 调试时运行 python run.py # 在服务器中可以运行  nohup python -u run.py >> crawler.out 2>&1 & 注意在项目下创建存储日志的文件 /ProxyIPPool/log/log.txt API接口 请求方式GET http://{运行服务器的ip}/api/fetch/ 随机返回一个代理ip信息 http://{运行服务器的ip}/api/random/{个数}, 随机返回指定个数 首页展示的内容可以在这里IPPool/views.py中修改 # IPPool/views.py # 修改context 改变返回首页的内容 def index(requests): """ 返回到说明页 :param requests: :return: """ context = '<h3>1.访问接口http://{运行服务器的ip}/api/fetch/ 随机返回一个代理ip信息</h3> <br/>' \ '<h3>2.访问接口http://{运行服务器的ip}/api/random/{个数}, 随机返回指定个数</h3> <br/>' return HttpResponse(context)

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值