python爬虫-Handler处理器的基本使用

不积跬步,无以至千里;不积小流,无以成江海~


前言

本篇文章通过举3个例子,来讲解Handler处理器的基本使用。


一、主要内容

例子1:示例Handler的基本使用
例子2:讲解ip代理
例子3:讲解代理池的使用方法

二、源码示例

1.Handler的基本使用

代码如下:

import urllib.request
url='http://www.baidu.com'
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36"
}
request=urllib.request.Request(url=url,headers=headers)
handler=urllib.request.HTTPHandler()                   #获取handler对象
opener=urllib.request.build_opener(handler)            #获取opener对象
response=opener.open(request)                          #调用open方法
content=response.read().decode('utf-8')
print(content)

2.ip代理

代码如下:
说明:代码中的url地址可自行更改;proxies中的https的值仅为示例,可自行按照格式来写自己的ip代理值。

import urllib.request
url='https://www.baidu.com/'
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36"
}
request=urllib.request.Request(url=url,headers=headers)
proxies={
    'https':'122.9.101.6:8888'
}
handler=urllib.request.ProxyHandler(proxies=proxies)   #获取handler对象
opener=urllib.request.build_opener(handler)            #获取opener对象
response=opener.open(request)                          #调用open方法
content=response.read().decode('utf-8')
with open('daili.html','w',encoding='utf-8') as fp:		#将文件下载到本地
   fp.write(content)

3 代理池的使用方法

该代码实现在代理池中随机选择一个ip来使用。

import urllib.request
import random
proxies_pool=[
    {'http':'118.24.219:8888'},
    {'http': '118.24.219:8889'},
    {'http': '118.24.219:8886'},
    {'http': '118.24.219:8881'}
]
proxies=random.choice(proxies_pool)

url='http://www.baidu.com'     
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36"
}
request=urllib.request.Request(url=url,headers=headers)
handler=urllib.request.ProxyHandler(proxies=proxies)
opener=urllib.request.build_opener(handler)
response=opener.open(request)
content=response.read().decode('utf-8')
with open('daili_1.html','w',encoding='utf-8') as fp:
    fp.write(content)   
   

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python中,爬虫的处理程序通常使用处理器handler)来处理网络请求和响应。处理器是一种用于处理特定任务的函数或类。 在爬虫中,最常用的处理器是请求处理器(Request Handler)和响应处理器(Response Handler)。 请求处理器用于发送HTTP请求到目标网站,并处理请求的参数、头部信息等。常见的请求处理器包括urllib库中的urlopen函数、requests库中的get和post方法等。 响应处理器用于解析和处理从目标网站返回的HTTP响应。常见的响应处理器包括使用正则表达式、XPath或解析库(如BeautifulSoup)进行HTML解析,以及使用JSON库解析JSON数据等。 除了请求处理器和响应处理器,还可以使用其他类型的处理器来执行特定的任务,例如日志记录处理器、重定向处理器等。 以下是一个简单的示例,展示了如何使用请求处理器和响应处理器来进行爬虫任务: ```python import urllib.request from bs4 import BeautifulSoup # 请求处理器 def request_handler(url): response = urllib.request.urlopen(url) html = response.read() return html # 响应处理器 def response_handler(html): soup = BeautifulSoup(html, 'html.parser') # 在这里可以使用BeautifulSoup提供的方法来解析和处理HTML文档 # 例如,查找特定元素、提取数据等 # 具体的操作根据具体需求进行编写 # 爬虫任务 def spider(url): html = request_handler(url) response_handler(html) # 测试 spider('http://example.com') ``` 请注意,这只是一个简单的示例,实际的爬虫任务可能需要更复杂的处理逻辑和其他处理器

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值