爬虫简介
1 什么是爬虫?
通过代码程序的编写,模拟一个人类上网的一个行为,然后自动获取互联网上所需的数据。
1.1 爬虫是否合法
- 在法律中是不被禁止的
- 具有违法风险
- 善意爬虫
1.2 爬虫带来的风险
- 爬虫干扰了被访问网站的正常运营
- 爬虫抓取了受到法律保护的特定类型的数据或信息
如何避免爬虫的过程中触犯到法律 - 优化爬虫代码,避免干扰被访问的网站的正常运行
- 在使用爬虫进行数据爬取的时候,查看抓取内容是否合法,是否被网站允许
1.3 爬虫使用场景
- 通用爬虫
抓取系统的重要组成部分。抓取的是一整张页面数据 - 聚焦爬虫
是建立在通用爬虫的基础之上。抓取的是页面的特定内容。 - 增量式爬虫
检测网站中数据更新的情况。只会抓取网站中最新更新出来的数据。
1.4 爬虫的矛与盾
- 反爬机制
门户网站,可以通过制定相应的策略或者技术手段,防止爬虫程序进行网站数据的爬取。 - 反反爬机制
爬虫程序可以通过制定相关的策略或者技术手段,破解门户网站中具备的反爬机制,从而可以获取门户网站中相关的数据。
1.4 robots.txt协议
君子协议。规定了网站中哪些数据可以被爬虫爬取哪些数据不可以被爬取。