【Web Spider】网络爬虫(一):抓取网页的含义和URL基本构成

一、网络爬虫的定义
网络爬虫,即Web Spider,是一个很形象的名字。
把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。
网络蜘蛛是通过网页的链接地址来寻找网页的。
从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其他链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。
如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把整个互联网上所有的网页都抓取下来。
这样看来,网络爬虫就是一个爬虫程序,一个抓取网页的程序。
网络爬虫的基本操作就是抓取网页。
那么如何才能随心所欲地获取自己想要的页面?
我们先从URL开始


二、浏览网页的过程
抓取网页的过程其实和读者平时使用IE浏览器浏览网页的道理是一样的。
比如说你在浏览器的地址栏中输入www.baidu.com这个地址。
打开网页的过程其实就是一个浏览器作为一个浏览的“客户端”,向服务器端发送一次请求,把服务器端的文件“抓”到本地,再进行解释、展现。
HTML是一种标记语言,用标签标记内容并加以解析和区分。
浏览器的功能是将获得得到的HTML代码进行解析,然后将原始的代码转变成我们直接看到的网站页面。


三、URIURL的概念和举例
简单的来说,URL就是在浏览器中输入的http://www.baidu.com这个字符串。
在理解URL之前,首先要理解URI的概念。
什么是URI
Web上每种可用的资源,如HTML文档、图像、视频片段、程序都是由一个通用资源标识符(Universal Resource Identifier,URI)进行定位。
URI通常由三部分组成:
访问资源的命名机制;
存放资源的主机名;
资源自身的名称,由路径表示。
如下的URI
http://www.why.com.cn/myhtml/html1223/
这是一个可以通过HTTP协议访问的资源
位于主机 www.webmonkey.com.cn
通过路径“/html/html40”访问


四、URL的理解和举例
URLURI的一个子集。它是Uniform Resource Locator的缩写,译为“统一资源定位符”。
通俗的来讲,URLInternet是描述信息资源的字符串,主要用在各种www客户端程序和服务器程序上。
采用URL可以用一种统一的格式来描述各种信息资源,包括文件、服务器的地址和目录等。
URL的一般格式为(带有方括号[]的可选项):
protocol://hostname[:port]/path/[;parameters][?query]#fragment
URL的格式由三个部分组成:
第一部分是协议(或称为服务方式)。
第二部分是存有该资源的主机IP地址(有时也包括端口号)。
第三部分是主机资源的具体地址,如目录和文件名等。


五、URLURI简单比较
URI属于URL更低层次的抽象,一种字符串文本标准。
换句话说,URI属于父类,而URL属于URI的子类。URLURI的一个子集。
URI的定义是:统一资源标识符;
URL的定义是:统一资源定位符。
二者的区别在于,URI表示请求服务器的路径,定义这么一个资源。而URL同时说明要如何访问这个资源(http://)。


下面来看看两个URL的小例子。
1.http协议的URL示例:
使用超文本传输协议HTTP,提供超级文本信息服务的资源。
例如:http://www.peopledaily.com.cn/channel/welcome.htm
其计算机域名为www.peopledaily.com.cn
超级文本文件(文件类型为.html)是在目录/channel下的welcome.htm
这是中国人民日报的一台计算机。
例:http://www.rol.cn.net/talk/talk1.htm
其计算机域名为www.rol.cn.net
超级文本文件(文件类型为.html)是在目录/talk下的talk1.htm
这是瑞得聊天室的地址,可由此进入瑞得聊天室的第1室。
2.文件的URL
URL表示文件时,服务器方式用file表示,后面要有主机IP地址、文件的存取路 径(即目录)和文件名等信息。
有时可以省略目录和文件名,但“/”符号不能省略。
例:file://ftp.yoyodyne.com/pub/files/foobar.txt
上面这个URL代表存放在主机ftp.yoyodyne.com上的pub/files/目录下的一个文件,文件名是foobar.txt
例:file://ftp.yoyodyne.com/pub
代表主机ftp.yoyodyne.com上的目录/pub

例:file://ftp.yoyodyne.com/
代表主机ftp.yoyodyne.com的根目录。
爬虫最主要的处理对象就是URL,它根据URL地址取得所需要的文件内容,然后对它 进行进一步的处理。
因此,准确地理解URL对理解网络爬虫至关重要。
参考链接

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
网页抓取工具5.1可以抓取互联网、wap网站上的任何网页,包括需要登录后才能访问的页面。对抓取到页面内容进行解析,得到结构化的信息,比如:新闻标题、作者、来源、正文等。支持列表页的自动翻页抓取,支持正文页多页合并,支持图片、文件的抓取,可以抓取静态网页,也可以抓取带参数的动态网页,功能极其强大。 用户指定要抓取的网站、抓取网页类型(固定页面、分页显示的页面等等),并配置如何解析数据项(如新闻标题、作者、来源、正文等),系统可以根据配置信息自动实时抓取数据,启动抓取的时间也可以通过配置设定,真正做到“按需抓取,一次配置,永久抓取”。抓来的数据可以保存到数据库中。支持当前主流数据库,包括:Oracle、SQL Server、MySQL等。 本工具完全可以替代传统的编辑手工处理信息的模式,能够实时、准确、一天24*60不间断为企业提供最新资讯和情报,真正能为企业降低成本,提高竞争力。 本工具主要特点如下: *适用范围广,可以抓取任何网页(包括登录后才能访问的网页) *处理速度快,如果网络畅通,1小时可以抓取、解析10000个网页 *采用独特的重复数据过滤技术,支持增量式数据抓取,可以抓取实时数据,如:股票交易信息、天气预报等 *抓取信息的准确性高,系统提供了强大的数据校验功能,保证了数据的正确性 *支持断点续抓,在当机或出现异常情况后可以恢复抓取,继续后续的抓取工作,提高了系统的抓取效率 *对于列表页,支持翻页,可以抓取到所有列表页中的数据。对于正文页,可以对分页显示的内容自动进行合并; *支持页面深度抓取,页面间可以一级一级地抓下去。比如,通过列表页抓取到正文页URL,然后再抓取正文页。各级页面可以分别入库; *WEB操作界面,一处安装,随处使用 *分步解析,分步入库 *一次配置,永久抓取,一劳永逸
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值