爬虫入门1-urllib包基本使用

使用request模拟请求

res = request.urlopen('https://www.baidu.com')
print(type(res))  # <class 'http.client.HTTPResponse'>
print(res.read())

请求头设置User-Agent防止反爬虫

from urllib import request

url = 'https://www.baidu.com/'
header = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.71 '
                 'Safari/537.36 '
}

rq = request.Request(url, headers=header)
resp = request.urlopen(rq)
print(resp.read())

使用ip代理发送请求 - proxyHandler

from urllib import request

url = 'http://httpbin.org/ip'
# resp = request.urlopen(url)
# print(resp.read()) # 没有使用代理输出Ip地址:b'{\n  "origin": "139.227.81.70"\n}\n'n

# 使用ip代理
# 1. 使用proxyHandler, 传入ip构造一个handler
hander = request.ProxyHandler({'http':'221.10.217.59:8888'})
# 2. 使用handler构造opener
opener = request.build_opener(hander)
# 3. 使用opener发送请求
resp = opener.open(url)
print(resp.read())




  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值