实用爬虫-02-爬虫真正使用代理 ip

实用爬虫-02-爬虫真正使用代理 ip

# coding:utf-8
# 爬虫使用代理IP

from urllib import request,error

if __name__ == '__main__':

    # 0.设置测 ip 的地址
    url = "http://2018.ip138.com/ic.asp"
    # 1.设置代理 ip,获取方法参照:https://www.cnblogs.com/xpwi/p/9600727.html
    proxy = {'http':'189.201.142.129:57815'}
    # 2.创建ProxyHandler
    proxy_handler = request.ProxyHandler(proxy)
    # 3.创建Opener
    opener = request.build_opener(proxy_handler)
    # 4.安装Opener
    request.install_opener(opener)

    # 下面再进行访问url就会使用代理服务器
    try:
        rsp = request.urlopen(url)
        html = rsp.read().decode('GBK')
        print(html)

    except error.HTTPError as e:
        print(e)
    except Exception as e:
        print(e)

运行结果

1483449-20180908225529621-2075630791.jpg

  • 什么墨西哥,我在天津

更多文章链接:实用爬虫


  • 本笔记不允许任何个人和组织转载

转载于:https://www.cnblogs.com/xpwi/p/9610984.html

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值