爬虫 http error 403: forbidden_爬虫是如何实现的

爬虫的基本原理和基本库使用

爬虫简单来说就是获取网页并提取和保存信息的自动化程序。

获取网页

获取网页的源代码:向网站的服务器发送一个请求,返回的响应体便是网页源代码。

提取信息

分析网页源代码,从中提取我们想要的数据。最通用的方式便是采用正则表达式提取

保存数据

将提取到的数据保存到某处以便以后使用

自动化程序

利用爬虫代替我们完成这份爬取工作的自动化程序

爬虫过程中遇到的一些情况:比如403错误,打开网页一看,可能会看到"您的ip访问频率过高"这样提示,是因为网站采用了一些反爬虫的措施,这个时候我们可以使用代理,所谓的代理,就是代理服务器,就是一个网络信息的中转站,正常请求一个网站的时候,是发送给web服务器,web服务器吧响应传回给我们,如果我们设置了代理服务器,就相当于本机和服务器之间搭了一座桥,本机向代理服务器发送请求,再由代理服务器发送给Web服务器。再由代理服务器把web服务器返回的响应转发本机,这样我们就实现了IP伪装

网上免费代理比较多,但最好筛选一下可用代理,付费的质量会比免费代理好很多

然后我们正式来开始学习爬虫的一些基本使用库(python3环境),这里我们用的是pycharm软件

使用urllib

Urlopen

Urllib.request模块提供了最基本的构造HTTP请求的方法,可以利用它模拟浏览器一个请求发起的过程,这里我们以python官网为例

import urllib.requestresponse=urllib.request.urlopen('https://www.python.org')print(response.read().decode('utf-8'))

d129308a554470dfdf283d4645e752fd.png

这样我们就完成了python官网的抓取

2.Type

然后我们可以用type()方法输出响应的类型

import urllib.requestresponse=urllib.request.urlopen('https://www.python.org')print(type(response))

7f8eee58a399ed44d650d451188a1568.png

可以发现他是一个HTTPResponse类型对象,主要包含read(),readinto(),getheader(name),getheaders()等方法。

我们可以把它赋值为response变量,然后就可以调用这些方法和属性,得到返回结果的一系列信息了

例如:

import urllib.requestresponse=urllib.request.urlopen('https://www.python.org')print(response.status)

6800205dbaf4083bd1291c7dc82b66d6.png

返回200代表请求成功,在本篇文章末尾会有一张状态码表,可以进行对照

import urllib.requestresponse=urllib.request.urlopen('https://www.python.org')print(response.getheaders())

9cbb6b8a02fc027db846d3251883a9d5.png

输出响应的状态码和响应的头信息import urllib.requestresponse=urllib.request.urlopen('https://www.python.org')print(response.getheader('Server'))

1ed13adf997b068838a23bb68212f800.png

传递了一个server值获取了响应头中的server值,返回的意思是服务器用nginx搭建的

如果想给链接传一些参数:

DATA参数:如果添加该函数,需要使用byte()方法将参数转化为字节流编码格式的内容,如果传递了这个函数,则它的请求方式就不是GET方式,而是POST方式,这里我们请求站点是http://httpbin.org/post,他可以测试post

import parseimport urllib.requestdata=bytes(urllib.parse.urlencode({'word':'Hello'}),encoding='utf-8')#将字符转化为字符串response=urllib.request.urlopen('http://httpbin.org/post',data=data)print(response.read())

02b9705b07f12ac498868fde48b1d2aa.png

可以看到我们传递的参数在form字段中

timeout参数:用于设置超时时间(s),如果超出设置的时间没有得到相应,就会抛出异常,不指定参数就会使用全局默认时间

import urllib.requestresponse=urllib.request.urlopen('http://httpbin.org/get',timeout=1)print(response.read())

12f5ec2c1e9ca25e9e9ca04323f321ac.png

因为我们设置的时间1秒,超过1秒后服务器没响应,因此抛出异常

因此我们可以设置这个超时时间来控制一个网页长时间没有响应后,就跳过它的抓取

import socketimport urllib.requestimport urllib.errortry: response=urllib.request.urlopen('http://httpbin.org/get',timeout=0.1)except urllib.error.URLError as e: if isinstance(e.reason,socket.timeout): print('TIME OUT')

0c76c412800a1abcb1b034a3d7495434.png

设置时间为0.1s,因为太短了得不到服务器响应,因此打印timeout

Request

我们知道利用urlopen()方法可以实现最基本的请求发起,但这几个简单参数不足以构建个完整的请求,如果请求中需要加入Headers等信息,可以利用Request来构建

from urllib import request,parseurl='http://httpbin.org/post'headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64)','Host':'httpbin.org'}dict={ 'name' :'Germey'}data=bytes(parse.urlencode(dict),encoding='utf-8')req=request.Request(url=url,headers=headers,method='POST')response=request.urlopen(req)print(response.read().decode('utf-8'))

构造了四个函数,url即请求URL,headers中置顶了User=Agent和HOST,参数data用urlencode()和bytes()方法转成了字节流,另指定了POST

3c0b18233cf874e65687f2289f3a52ac.png

我们成功设置了data,headers和method

最后喜欢我文章的朋友请加圈子关注我们,加我们的qq群:251573549

每天都会更新信息安全福利给大家哦,小编也会在群里一一为大家解决问题

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值