【爬虫】了解爬虫相关信息这一篇文章就够了

本文详细介绍了爬虫的基本概念、价值、合法性及其可能带来的风险。爬虫开发者应遵守robots协议,同时注意避免干扰网站正常运行。讨论了通用、聚焦和增量式爬虫的分类,并阐述了Python爬虫的获取网页、解析网页和存储数据的流程。此外,还涉及了HTTP协议、HTTPS协议和反爬与反反爬策略。
摘要由CSDN通过智能技术生成

本系列为自己学习爬虫的相关笔记,如有误,欢迎大家指正

什么是爬虫

  • 形象概念: 爬虫,即网络爬虫,大家可以理解为在网络上爬行的一直蜘蛛,互联网就比作一张大网,而爬虫便是在这张网上爬来爬去的蜘蛛咯,如果它遇到资源,那么它就会抓取下来。想抓取什么?这个由你来控制它。
  • 学术概念:爬虫就是通过编写程序模拟浏览器上网,让其去互联网上抓取数据的过程。

为什么要学习爬虫

在数据量爆发式增长的互联网时代,网站与用户的沟通本质上是数据的交换,分析数据可以为企业做出更好的决策提供帮助,这就涉及到大数据分析,而爬虫就是数据分析的第一个环节。

爬虫的价值

抓取互联网上的数据,为我所用,有了大量的数据,就如同有了一个数据银行一样,下一步做的就是如何将这些爬取的数据产品化,商业化。

爬虫究竟是合法还是违法的?

爬虫是用来批量获得网页上的公开信息的,也就是前端显示的数据信息。因此,既然本身就是公开信息,其实就像浏览器一样,浏览器解析并显示了页面内容,爬虫也是一样,只不过爬虫会批量下载而已,所以是合法的。不合法的情况就是配合爬虫,利用黑客技术攻击网站后台,窃取后台数据(比如用户数据等)

爬虫所带来风险主要体现在以下2个方面:

  • 爬虫干扰了被访问网站的正常运营;

  • 爬虫抓取了受到法律保护的特定类型的数据或信息。

那么作为爬虫开发者,如何进行爬虫?

  • 严格遵守网站设置的robots协议;

  • 在规避反爬虫措施的同时,需要优化自己的代码,避免干扰被访问网站的正常运行;

  • 在使用、传播抓取到的信息时,应审查所抓取的内容,如发现属于用户的个人信息、隐私或者他人的商业秘密的,应及时停止并删除。

爬虫的分类

  • 通用爬虫:通用爬虫是搜索引擎(Baidu、Google、Yahoo等)“抓取系统”的重要组成部分。主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。 简单来讲就是尽可能的;把互联网上的所有的网页下载下来,放到本地服务器里形成备分,在对这些网页做相关处理(提取关键字、去掉广告),最后提供一个用户检索接口。
  • 聚焦爬虫:聚焦爬虫是根据指定的需求抓取网络上指定的数据。例如:获取豆瓣上电影的名称和影评,而不是获取整张页面中所有的数据值。
  • 增量式爬虫:增量式是用来检测网站数据更新的情况,且可以将网站更新的数据进行爬取(后期会有章节单独对其展开详细的讲解)。

python爬虫的流程

(1)获取网页;

获取网页就是给一个网址发送请求,该网址会返回整个网页的数据。类似于在浏览器中键入网址并按回车键,然后可以看到网站的整个页面。

获取网页的基础技术:requests、urllib和selenium

获取网页的进阶技术:多进程多线程抓取、登录抓取、突破IP封禁和使用服务器抓取。

(2)解析网页(提取数据);

解析网页就是从整个网页的数据中提取想要的数据。类似于你在页面中想找到产品的价格,价格就是你要提取的数据。

解析网页的基础技术:re正则表达式、BeautifulSoup和lxml。

解析网页的进阶技术:解决中文乱码。

(3)存储数据。

存储数据也很容易理解,就是把数据存储下来。我们可以存储在csv中,也可以存储在数据库中。

存储数据的基础技术:存入txt文件和存入csv文件

存储数据的进阶技术:存入MySQL数据库和MongoDB数据库

爬虫的矛与盾

有一个说法是,互联网上50%的流量都是爬虫创造的。这个说法虽然夸张了点,但也体现出了爬虫的无处不在。爬虫之所以无处不在,是因为爬虫可以为互联网企业带来收益。

对于相关的电商网站来说,很多电商网站是愿意被比价网站或者其他购物信息网站爬取信息的,因为这样能够给他们的商品带来更多流量。但他们不愿意被其他电商网站获取价格信息和商品描述,因为担心其他电商网站恶意比价或进行抄袭。同时他们又经常去爬其他电商网站的数据,希望能够看到别人的价格。

反爬机制

门户网站通过制定相应的策略和技术手段,防止爬虫程序进行网站数据的爬取。

反反爬策略

爬虫程序通过相应的策略和技术手段,破解门户网站的反爬虫手段,从而爬取到相应的数据。

robots协议

乎是和爬虫技术诞生的同一时刻,反爬虫技术也诞生了。在90年代开始有搜索引擎网站利用爬虫技术抓取网站时,一些搜索引擎从业者和网站站长通过邮件讨论定下了一项“君子协议”—— robots.txt。即网站有权规定网站中哪些内容可以被爬虫抓取,哪些内容不可以被爬虫抓取。这样既可以保护隐私和敏感信息,又可以被搜索引擎收录、增加流量。

历史上第一桩关于爬虫的官司诞生在2000年,eBay将一家聚合价格信息的比价网站BE告上了法庭,eBay声称自己已经将哪些信息不能抓取写进了robots协议中,但BE违反了这一协议。但BE认为eBay上的内容属于用户集体贡献而不归用户所有,爬虫协议不能用作法律参考。最后经过业内反复讨论和法庭上的几轮唇枪舌战,最终以eBay胜诉告终,也开了用爬虫robots协议作为主要参考的先河。

最后,可以通过网站域名 + /robots.txt的形式访问该网站的协议详情,例如:www.taobao.com/robots.txt

User-agent: Baiduspider
Disallow: /

User-agent: baiduspider
Disallow: /

http&https协议

what is http协议

  • 官方概念:HTTP协议是Hyper Text Transfer Protocol(超文本传输协议)的缩写,是用于从万维网(WWW:World Wide Web )服务器传输超文本到本地浏览器的传送协议。(虽然童鞋们将这条概念都看烂了,但是也没办法,毕竟这就是HTTP的权威官方的概念解释,要想彻底理解,请客观目移下侧……)

  • 白话概念:HTTP协议就是服务器(Server)和客户端(Client)之间进行数据交互(相互传输数据)的一种形式。我们可以将Server和Client进行拟人化,那么该协议就是Server和Client这两兄弟间指定的一种交互沟通方式。

HTTP工作原理

HTTP协议工作于客户端-服务端架构为上。浏览器作为HTTP客户端通过URL向HTTP服务端即WEB服务器发送所有请求。Web服务器根据接收到的请求后,向客户端发送响应信息。
在这里插入图片描述

常见的请求头信息

  • accept:浏览器通过这个头告诉服务器,它所支持的数据类型
  • Accept-Charset: 浏览器通过这个头告诉服务器,它支持哪种字符集
  • Accept-Encoding:浏览器通过这个头告诉服务器,支持的压缩格式
  • Accept-Language:浏览器通过这个头告诉服务器,它的语言环境
  • Host:浏览器通过这个头告诉服务器,想访问哪台主机
  • If-Modified-Since: 浏览器通过这个头告诉服务器,缓存数据的时间
  • Referer:浏览器通过这个头告诉服务器,客户机是哪个页面来的 防盗链
  • Connection:浏览器通过这个头告诉服务器,请求完后是断开链接还是何持链接
  • X-Requested-With: XMLHttpRequest 代表通过ajax方式进行访问
  • User-Agent:请求载体的身份标识

常见的响应头信息

  • Location: 服务器通过这个头,来告诉浏览器跳到哪里
  • Server:服务器通过这个头,告诉浏览器服务器的型号
  • Content-Encoding:服务器通过这个头,告诉浏览器,数据的压缩格式
  • Content-Length: 服务器通过这个头,告诉浏览器回送数据的长度
  • Content-Language: 服务器通过这个头,告诉浏览器语言环境
  • Content-Type:服务器通过这个头,告诉浏览器回送数据的类型
  • Refresh:服务器通过这个头,告诉浏览器定时刷新
  • Content-Disposition: 服务器通过这个头,告诉浏览器以下载方式打数据
  • Transfer-Encoding:服务器通过这个头,告诉浏览器数据是以分块方式回送的
  • Expires: -1 控制浏览器不要缓存
  • Cache-Control: no-cache
  • Pragma: no-cache

https协议

HTTPS (Secure Hypertext Transfer Protocol)安全超文本传输协议,HTTPS是在HTTP上建立SSL加密层,并对传输数据进行加密,是HTTP协议的安全版。
在这里插入图片描述

https加密算法

  • 对称秘钥加密:客户端向服务器发送一条信息,首先客户端会采用已知的算法对信息进行加密,比如MD5或者Base64加密,接收端对加密的信息进行解密的时候需要用到密钥,中间会传递密钥,(加密和解密的密钥是同一个),密钥在传输中间是被加密的。这种方式看起来安全,但是仍有潜在的危险,一旦被窃听,或者信息被挟持,就有可能破解密钥,而破解其中的信息。因此“共享密钥加密”这种方式存在安全隐患。
    在这里插入图片描述

  • 非对称秘钥加密:“非对称加密”使用的时候有两把锁,一把叫做“私有密钥”,一把是“公开密钥”,使用非对象加密的加密方式的时候,服务器首先告诉客户端按照自己给定的公开密钥进行加密处理,客户端按照公开密钥加密以后,服务器接受到信息再通过自己的私有密钥进行解密,这样做的好处就是解密的钥匙根本就不会进行传输,因此也就避免了被挟持的风险。就算公开密钥被窃听者拿到了,它也很难进行解密,因为解密过程是对离散对数求值,这可不是轻而易举就能做到的事。以下是非对称加密的原理图:
    在这里插入图片描述

  • 但是非对称秘钥加密技术也存在如下缺点:

    • 第一个是:如何保证接收端向发送端发出公开秘钥的时候,发送端确保收到的是预先要发送的,而不会被挟持。只要是发送密钥,就有可能有被挟持的风险。
    • 第二个是:非对称加密的方式效率比较低,它处理起来更为复杂,通信过程中使用就有一定的效率问题而影响通信速度
  • **证书秘钥加密:**在上面我们讲了非对称加密的缺点,其中第一个就是公钥很可能存在被挟持的情况,无法保证客户端收到的公开密钥就是服务器发行的公开密钥。此时就引出了公开密钥证书机制。数字证书认证机构是客户端与服务器都可信赖的第三方机构。证书的具体传播过程如下:

    • 服务器的开发者携带公开密钥,向数字证书认证机构提出公开密钥的申请,数字证书认证机构在认清申请者的身份,审核通过以后,会对开发者申请的公开密钥做数字签名,然后分配这个已签名的公开密钥,并将密钥放在证书里面,绑定在一起

    • 服务器将这份数字证书发送给客户端,因为客户端也认可证书机构,客户端可以通过数字证书中的数字签名来验证公钥的真伪,来确保服务器传过来的公开密钥是真实的。一般情况下,证书的数字签名是很难被伪造的,这取决于认证机构的公信力。一旦确认信息无误之后,客户端就会通过公钥对报文进行加密发送,服务器接收到以后用自己的私钥进行解密。
      在这里插入图片描述

微信搜一搜【梓莘】或扫描下方二维码交个朋友共同进步。文章持续更新中。目前在整理爬虫相关学习笔记,期待后续更多的更新哦。

扫码关注公众号

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值