网络爬虫

爬虫能干什么
搜索引擎
抢票、刷票等自动化软件
部分破解软件
金融等行业数据挖掘、分析数据来源
其他
爬虫很简单
语言的选择
两种语言的小demo
爬虫也不简单
ip、浏览器头(User-Agent)、和cookie限制
需登录的验证码限制、参数限制
JavaScript渲染/ajax加密

网络爬虫的类型: 通用网络爬虫,聚焦网络爬虫,增量式网络爬虫。

通用网络爬虫又叫全网爬虫,也就是网络爬虫爬取的目标资源在全网中。这种爬虫所爬取的目标数据是巨大的,并且爬取的范围也是很大的,是一种很典型的海量数据,所以对爬取的性能要求是非常高的,主要应用于大型搜索引擎中。

聚焦网络爬虫:也叫主题爬虫,是按照预先定义好的主题有选择性的进行网页抓取的一种爬虫,这种爬虫也就是我们平时所用的爬虫。

增量式爬虫:这种爬虫只爬取页面更新的地方,而未改变的地方则不更新。所以大多数时候都是新页面

深层网络爬虫:这种爬虫可以爬取深层页面。就是比较深层次的东西。

爬虫的语言是非常多的,

python:爬虫架构非常丰富,并且多线程处理能力较强,简单易学,代码简介,优点很多
java:适合开发大型爬虫项目
PHP:后端处理很强,代码很简洁,模块也丰富,但是并发能力较弱,
C++:运行速度快,也是适合开发大型爬虫项目,但是成本较高

什么是网络爬虫?
爬虫,又称为网页蜘蛛(spider),就是能够在互联网中检索自己需要的信息的程序或脚本。

爬虫,简单的说就是一个http(https)请求,获取到对面网页的源码,然后从网页的源码中抓取自己需要的信息。而html代码的规则是基于xml的,所以可以通过一定解析规则和逻辑完成我们的数据。

爬虫能干什么

爬虫能干的事情比较多,并且有些领域和爬虫都有很大的关联。不同深度,技术的爬虫工作者能干的事情也不同。

搜索引擎
你熟知的谷歌、百度、360等搜索都是网络爬虫+算法+db存储形成的一套持久运行、相对稳定的系统。当然,这类爬虫并不是大部分人都能接触的,通常这类对硬件成本和算法的要求较高,要满足一定的爬行速率、爬行策略并且你还要通过一定算法检索文本、挖掘文本 ,通过文本价值和外链数量等等判权信息给搜索排名加权。具体不做过多介绍。笔者也不会。但是如果有兴趣完全可以运用开源软件或者工具做个站内搜索,或者局域搜索。这个如果有兴趣可以实现,虽然可能效果不好。

爬虫知识储备路线

虽然一些高难度的爬虫确实很难,没有一定的工作经验和时间研究确实很难变强。但是我们还是能够通过掌握一些大众知识能够满足生活、学习的日常需求和创意。

1.基础语法:

无论你使用java和python,爬虫也是程序,你首先要掌握这门编程语言的语法。而基础语法入门也不需要太久,但是还是 需要一点时间,不能急于求成。
2.正则和爬虫相关库,以及浏览器F12抓包和Fidder等抓包工具抓包

当掌握基础语法后,爬虫一些简单好用的基本库需要花时间学习。正如上面表格所列的库。需要熟练掌握。在其中一定要学会使用抓包。简单分析请求的参数和地址等信息。而fiddler是一款强大的抓包工具。通过配置你也可以尝试抓安卓的包,爬去app的数据。至于简单抓包浏览器就可以完成。推荐谷歌浏览器。
3.扎实的语法

因为一个爬虫项目它的数据是有层次的,所以你需要良好的逻辑和编程习惯,抓取这些数据能够清晰的存储而不混乱。并且url遍历也需要深度优先遍历或者广度有限遍历等策略。需要熟悉这些基本算法,熟悉语言中集合模块的使用。
4. 多线程、数据库、线程安全相关知识。

单线程的爬虫是没灵魂的爬虫,一定要试试多线程,多进程爬虫的快感,然而这个过程可能会遇到封ip等问题,需要你自己搭建一个ip池。
5. 分布式的概念和知识。

一直单机的爬虫是没灵魂的爬虫。要试试多台程序多线程跑一个爬虫任务。当然,这里就会遇到分布式锁的问题。需要你对该方面稍微了解。运用。
6. js进阶、逆向等知识.

随着前后端分离,js流行等等,网页其实对于爬虫变得复杂,难度和学习成本也在提升。试着找一些登录网站模拟登录,调用一些开源算法等等。这部分其实才是真正大佬能力体现。当能够识别这种加密,然而其他app协议也就能慢慢解开。完成一些牛逼的事情。

浅谈网络爬虫——基于Python实现
概述

   一个爬虫从网上爬取数据的大致过程可以概括为:向特定的网站服务器发出请求,服务器返回请求的网页数据,爬虫程序收到服务器返回的网页数据并加以解析提取,最后把提取出的数据进行处理和存储。因此,一个爬虫程序可以主要分为三大部分:向服务器请求并获取网页数据、解析网页数据、数据处理和存储。

获取网页数据
一个爬虫程序中,这部分其实是最关键也是最容易出问题的部分。爬虫可以分为善意的和恶意的,善意的爬虫一般会自觉遵守某些协议,只爬取对方愿意让你爬的数据,并且不会对对方的服务器造成太大影响;当然,一般这样爬取的到的数据以及爬取效率都会受限,所以就自然会滋生很多的恶意爬虫,这种爬虫不但想方设法的爬取对方不想泄露的信息,而且也会多进程高速度的爬取,给对方带来很多无效访问,造成服务器资源浪费,也由此很多网站也开发了反爬虫策略来抵制这些恶意爬虫。一般的,大部分反爬虫策略是针对这一环节开发的,比如身份识别、特定IP的访问频率识别、验证码输入等,反爬虫和用户体验网站效率等之间很多时候是不可兼得的,因此这是一个需要权衡和评估的关键点。而且对于有些网页数据,是需要用户登录后才可以获取的,这时爬虫程序就也需要进行相应的登录操作后才可以请求需要的网页信息。此外,还有一些网站使用了一种叫做异步加载的技术,因此无法直接获取网页数据,还需要通过逆向工程等方式进一步分析。因此,一个爬虫程序相对最关键的部分就是如何获取到网页数据,这也是爬取数据过程中最灵活,也是最让人头疼的地方。

   下面主要简单讲述下获取网页数据的大致过程,然后再介绍几种Python中获取网页数据的几种主要的方法。

   获取网页的数据过程描述起来很简单,就是终端通过对应网页资源的特定标识(比如url、表单参数等)向服务器发起一个请求,然后服务器解析并响应这个请求,返回相应的网页数据。

   在Python中,一般爬虫主要是通过一个python的第三方库requests来实现这个过程的,requests库提供了两种发起请求的方法,分别为get()何post(),这也是大部分网站都会实现的两个接口。一般地,get()方法直接通过url参数(有时候还需要请求头参数)便可以发起有效请求;post()方法除此之外还需要一些额外的表单参数,才可以发起有效请求。在一个爬虫中具体用哪种方法取决于要爬取的网站实现了哪个接口,这个可以通过在浏览器(推荐chrome浏览器)的开发者工具(F12)查看。此外,还有一种方法是通过selenium库实现这个过程。selenium也是python的第三方库,其需要和第三方浏览器配合,可以在爬虫程序中模拟浏览器的操作,从而直接获取在实际浏览器中对应的操作可以获得的页面信息,由于PhantomJS已经停止开发,这里推荐的是chrome或者Firefox的无头浏览器。

   在获取网页数据的这个过程中,常遇到的问题是网站运用了异步加载技术(AJAX)和需要用户登录才可以进入相应的页面。所谓异步加载就是一种通过只和服务器交换少量的每页不同的数据就可以实现页面更新的技术,而不是每次都需要重新加载整个页面,这个可以更小的消耗服务器资源,也更高效快速。但是用了异步加载技术的网站的一个特点就是无法通过网页的显式url(即显示在网页顶部的链接)直接获取网页信息,因为一般的,对于采用了异步加载技术的网站,要么是用户可以通过不断的下滑页面实现分页,要么是通过点击网页显式的换页标签进行分页,而这些过程中分页时网站的显式url都是不变的,即说明一个显式的url对应着很多的分页,但是这些分页并不是一下子加载的,而是每次通过和服务器交换少量的分页特异性信息异步加载的,因此,我们可以把这个显式的url看作是分页的顶层逻辑,但是并不包含什么实质内容,这也就意味着我们无法通过一个显式的url来获取分页的数据。但是每个分页具有特定的标识,这个可以在浏览器的开发者工具的XHR项下看到,因此,当我们面对采用了异步加载技术的网站时,我们是通过XHR项下的分页标识进行爬取,而不是网页显式的url。

解析网页数据

当我们获取到网页数据之后,接下来就是对此进行解析并从中提取需要的数据。网站返回的数据格式有三种:HTML、XML、JSON,但是一般我们从网站上爬取到的从服务器中返回的是HTML格式的,有些从网站提供的API返回的数据格式是JSON,下面我们只针对HTML格式的数据进行分析。

   要解析HTML格式的数据,python中一般有三种方法,分别对应三个库:BeautifulSoup库、re库、Lxml库。

   BeautifulSoup库可以很方便的解析Requests库请求的网页,并把网页源代码解析为Soup对象,以便过滤提取数据。BeautifulSoup库除了支持HTML,也支持XML。可以通过该库中的find()、find_all()、selector()方法定位提取需要的数据,其中的参数以及定位原则可以查看文档。

   re库是python中关于正则表达式的库,支持全部的正则表达式功能,可以利用该库通过正则表达式来匹配提取HTML文档中的数据。一般可以通过该库中的search()、findall()函数来匹配提取。当然关于正则表达式需要读者额外的去学习,虽然在学习上会比较灵活,但是同时其也是功能相对最强大和效率最高的方法之一。

   Lxml是XML解析库,但是对HTML也有很好的支持,该模块使用c语言的python封装,因此解析速度比BeautifulSoup快。Lxml库使用Xpath语法解析定位网页数据,因此读者需要自行学习Xpath语法以便知道如何定位提取数据,学习难度不大,功能也强大。一般利用该库中的etree模块对网页进行解析,然后再利用解析后返回的对象中的xpath()方法结合Xpath语法提取需要的数据。

   这三种方法都可以实现对网页数据的解析和提取,但是性能上有差异。一般的,正则表达式和Lxml库的性能较高,但是正则表达式使用难度较大,Lxml一般是比较推荐的;BeautifulSoup库的性能相对较低,但是使用起来简单,在爬取小规模数据时可以使用。

数据处理和存储
数据处理其实没啥多说的,其本身内容庞杂,即用即查,多用多学,但python对数据处理是有先天优势的。

   数据存储一般取决于数据量的大小,小规模的数据一般以csv的格式储存,这可以利用python的第三方库csv实现,该库的利用也比较简单。对于大规模的数据,则一般储存在数据库里面,无论是关系型数据库还是非关系型数据库,python对这两者主流的数据库都有第三方库的支持。比如对于非关系型数据库MongoDB,python有第三方库pymongo;关系型数据库MySQL,python有第三方库pymysql。如果是将数据储存在本地,则需要下载本地数据库,最好也下载数据库图形管理界面方便查看;如果是远程数据库,则同样的最好自己下载好图形界面的数据库管理器以便查看。

Scrapy爬虫框架
最后简单介绍一下python中一个专门用来编写爬虫的框架scrapy。scrapy是Python的一个爬虫框架,既然是框架,说明对爬虫的结构逻辑具有严格的定义和拆分。里面将需要的数据条目、爬虫主体、数据储存三部分分别用不同的文件分隔,使得爬虫逻辑更为的清晰,并且也预写好了很多的细节,用户只需要编写和定义一些关键字段就行,这也大大的提高了爬虫的开发效率。具体的使用方法还需要用户自己查看文档或者相关的教材。

   由于scrapy有很多的依赖库,所以在安装的时候,如果已经下载了anaconda的读者,建议直接用conda命令进行安装,conda命令会自行安装该库的依赖库,这也是conda命令相比于pip命令的一个优势;如果没有下载anaconda,则最好下载一下,或者先下载好Lxml、zope.interface、twisted、pyOpenSSL、pywin32这些依赖库,然后再通过pip命令下载scrapy。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值