爬虫的基本定义与原理


    学习目标:了解爬虫的定义和原理,并知道为什么要学爬虫。


    你听说过爬虫吗?从今天开始我们一起学习Python爬虫吧!

一、为什么要学爬虫

    至于这个问题,不同的人会给你不同的答案:因为爬虫可以爬取一些付费内容,所以有些人是为了省钱;因为爬虫可以爬取一些大数据,有利于分析数据,所以有些人是为了帮助工作;因为爬虫有利于学习网络知识,所以有些人是想当程序员……不过不论如何,只要学会了,都是有帮助的,还不赶紧学起来吧!

二、爬虫的定义

    你可能不知道,其实你现在就在爬虫,原来爬虫分为通用爬虫和聚焦爬虫,通用爬虫就是我们平常的上网,而我们Python则是聚焦爬虫。爬虫主要是通过我们的电脑向服务器发送请求,然后服务器返回数据给我们。

三、爬虫的原理

    通用爬虫一般是我们电脑在打开网站时,我们的电脑向服务器发送一个请求,然后服务器发送给我们页面代码,在我们的浏览器上运行。我们每次完成一个操作就会重新向服务器发送一个相应的请求。以此类推交换信息,这就是通常的爬虫。

    而聚焦爬虫不一样,他是专门为了获取某样信息而建立的爬虫,所以他一般只会爬取一个文件或一些文件,得到想要数据的效果。

以上就是爬虫的定义和原理,下一篇文章我们开始爬虫的正式学习。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值