火车头采集图文教程

下载火车头采集:

地址:http://www.locoy.com/Down/

火车采集器的安装:

火车采集器2010版是绿色软件。如果您电脑上安装了微软的.NET FrameWork 2.0框架或更高版本,安装时直接解压缩到您电脑的任何地方即可完成采集器的安装–安装过程不操作注册表和系统文件,不产生任何垃圾文件!如果您安装后程序无法启动,那可能是您电脑没有安装.NET FrameWork 2.0,请下载微软的.NET FrameWork 2.0框架或更高版本并安装。附2.0下载地址:

http://download.microsoft.com/download/5/6/7/567758a3-759e-473e-bf8f-52154438565a/dotnetfx.exe

下载完之后点击dotnetfx.exe安装.NET FrameWork。安装完.NET FrameWork之后打开火车采集器目录,双击目录内的LocoySpider.exe文件启动主程序开始采集之旅。

火车头采集基本流程:

系统设置à新建站点à新建任务à采集网址à采集内容à发布内容à抓数据。

1.新建站点:

据你自己的需求为任务建立统一的站点,以方便管理。

点击菜单上:站点à新建站点 打开如下图:

clip_image002[3]

可以填写站点名,站点地址,网址深度(0,代表根据地址直接采内容。1,代表根据地址采内容地址,然后根据内容地址采内容。2,代表根据地址采列表地址,然后根据列表地址采内容地址,再根据内容地址采内容。),站点描述。

2.新建任务:

任务是采集器采集数据时的基本工作单元,它一定是建立在站点中的。采集器通过运行任务来采集发布数据。任务工作的步骤总体可以分为三步:采网址,采内容,发内容。一个任务的运行可以任意选择哪几步。而采集器又可以同时运行多个任务(默认设置是同时最多运行3个任务)。

选择站点 点击右键选择“从该站点新建任务” 。任务的编辑界面如图:

clip_image004[3]

采集器的使用最主要的就是对任务的设置。而采集数据可以分为两步,第一步是:采网址,第二步:采内容。

3.采集网址:

采网址,就是从列表页中提取出内容页的地址。 
从页面自动分析得到地址连接:以http://list.dangdang.com/book/01.45.52_P1.html页面为例。我们来采集这个网址上的书信息。这个页面中有很多书信息的链接,要采集每个链接中书内容.首先需要将每个书信息的链接地址抓取到也就是抓取内容页的地址。 
先将该列表页地址添加到采集器里。点击“<<向导添加”后弹出“添加开始采集地址”对话框。我们选择“单条网址” 如图:

clip_image006[3]

点击添加把http://list.dangdang.com/book/01.45.52_P1.html地址添加到下面框中,点击完成即实现增加列表地址。

如果我们选择 “批量/多页” ,如图:

clip_image008[3]

可用通配符:(*) 可以代替页码变化时的地址之间的差异。数字变化可以设置你要爬取该列表页多少页。

间隔倍数可以数字页码变化的倍数。你也可以设置字母变化。设置完之后点击添加按钮把列表地址添加到下框中,点击完成即可完成列表地址设置。

你也可以选择 文本导入 和 正则提取 在这里就不一一讲了,因为这二种基本用的很少。

手动填写连接地址规则是将需要的网址用参数来获得并组合成我们需要的网址。这个好处是处理网址那块有规律的网址很好处理,但要是没规律,和周围的一样的话,就不好处理了。我们以http://list.dangdang.com/book/01.45.52_P1.html 为例. 看图里的设置:

clip_image010[3]

这样设置就可以获得内容页网址了,这个网址是从摘要那块获得的,那一块的代码都是一个样式,所以可以。 
你看上图的话,会发现在参数那里有个缩略图,因为有的文章是将缩略图放在列表里的。现在我们举个例子。看这个http://www.llsh.net/dz/,这个是电影的,有小图的,我们看一下怎么获得这个图片。注意,这里是同时获得网址和缩略图的。

这样设置就可以获得真实网址了,这个网址是从摘要那块获得的,那一块的代码都是一个样式,所以可以。 
你看上图的话,会发现在参数那里有个缩略图,因为有的文章是将缩略图放在列表里的。现在我们举个例子。看这个http://www.llsh.net/dz/,这个是电影的,有小图的,我们看一下怎么获得这个图片。注意,这里是同时获得网址和缩略图的。

在脚本规则里输入 [缩略图] 下边即出现无缩略图的提取内容中的第一张选项,将该项选中即可,再将[缩略图] 这几个字符去掉。如果您需要下载该图片,请选中将缩略图下载到本地。如果您不使用手动链接地址规则获取网址,将启用自定义格式得到地址选项去掉即可。注意事项:该功能只提取内容标签中的图片,所以请确保您要提取的图片在内容标签中。同时。如果内容标签中选了下载图片,则提取的图片也是下载到本地的图片地址。

clip_image012[3]

因为网址和缩略图那块的样子就是下边的,是有规律的,所以可以获得网址

clip_image014[3]

如果我们遇到那些用脚本做栏目列表时怎么办呢?用自动识别是不行的了。这时,该使用手动设置链接格式这个功能起作用了,这也是针对脚本类网址最好的解决办法。下边我们以腾讯Flash频道_作品列表为例来讲一下http://flash.qq.com/classlist/listwork_1000130000_1.shtml你用自动获取网址是得不到什么地址的.

clip_image016[3]

我们仔细分析地址:http://flash.qq.com/classlist/listwork_1000130000_1.shtml源码后就会发现,这个是这个样子的网址http://flash.qq.com/cgi-bin/viewwork?id=727749 ,只有最后的数字是不同的,而这数字就包含在脚本里边,我们看一下源码:

clip_image018[3]

注意:new Array("727749",后边就有我们要的网址,还有缩略图,我们可以这样写规则:

clip_image020[3]

这样就可以了,看一下效果

clip_image022[3]

OK了。

4.采集内容:

当所有网址抓取完后就可以开始抓取内容。抓取内容就是采集器请求到内容页后分析内容页的HTML源代码并依据在采集器中的标签规则设置匹配出相应的数据。在测试到的地址中,任意选择一个子地址,双击选中的地址或者点击“测试该页”按钮。如图:

clip_image024[3]

将会跳转到任务中的“第二步:采集内容规则”如图:

clip_image026[3]

在典型页面中会出现刚才选中的网址,这里就是测试采集内容。左边的标签名下面有:标题,出版社,图片,图片地址共四个标签,可以对标签进行添加、删除和编辑等操作。每个标签就是采集后得到的一段内容,可以是从页面中截取的内容,也可以是设置的一个固定的值或其他方式得到的值。

现在让我抓取http://product.dangdang.com/product.aspx?product_id=9188924&ref=book-02-L地址中的标题,查看该页的HTML源代码。在源代码中可以找到页面中的问题部分。如图:

clip_image028[3]

可以从网页HTML源代码里得到需要的标题(工程硕士研究生英语基础教程(学生用书))。

复制页面HTML中“<span class="black000"><a name="top_bk"></a>”后在文本中向上查找发现查找不到与该段相同的代码,说明此处是该段代码第一次出现的地方。如图:

clip_image030[3]

选择标题标签 ,点击右边的“编辑标签”按钮 打开如下图:

复制这段代码到“内容标签编辑框”的“开始字符串处”。 “</span>”是“<span class="black000"><a name="top_bk"></a>”后面第一次出现的地方。复制“</span>”到“结束字符串”处。如图:

clip_image032[3]

如果发现标题中含有“<ca><pre><\pre><\ca>”像这样的HTML代码,可以在标签设置里将这些没用的代码排除。设置如图:

clip_image034[3]

在此对话框中可以设置 标签内容必须包含什么和标签内容不得包含什么。

上面的 (*)可以代表为任何字符。

在这里还可以设置汉英翻译,简繁体互转:

火车采集器可以将抓取的汉字翻译成英语,方便一些朋友翻译用或做国外网站.同时支持将简体和繁体进行转化,方便简繁体用户交流.汉译英,简体转繁体使用很简单,只要在标签内选中即可.

clip_image036[3]

如果“使用正则匹配模式”采集数据 :

正则表达式很强大,利用它我们可以获得一定格式的数据,比如网址,E-mail地址,数字,字母等等.可喜的是,从3.2版开始,火车采集器就支持正则规则的编写了,这给喜欢用正则来实现不同需求的朋友带来福音。火车采集器里支持两种正则,一个纯正则,一个参数正则。我们下边分开讲一下:

1.纯正则:

clip_image038[3]

在标签中用正则表达式采内容的格式是这样:开始代码(?<content>正则表达式)结束代码,其中在开始代码和结束代码中如有需要转义的字符就要用\转义。比如我们要获取火车论坛的版块,我们从首页获取,正则可以这样写

clip_image040[3]

clip_image042[3]

然后就可以获得我们需要的版块名称了。

2.参数正则:

这个不算是正则,和网址采集那块的参数使用原理是一样的,可以对采到的内容进行组合。输入框两边都不得为空,后边的组合结果 [参数N] 是按匹配内容的顺序来写的,我们还是以http://bbs.locoy.com/为例,来获得栏目ID和栏目名称。

clip_image044[3]

测试一下,是可以获得我们需要的结果了。正则基本就这样,主要是写表达式的问题。如果您对这有兴趣,可以下载相关一些资料研究一下。

设置完之后点击“确定”按钮后点“测试”按钮得到页面中的数据。如图:

clip_image046[3]

看下面我们怎么样下载图片到本地来:

现在让我抓取http://product.dangdang.com/product.aspx?product_id=9188924&ref=book-02-L地址中的图片。查看该页的HTML源代码。在源代码中可以找到页面中的问题部分。如图:

clip_image048[3]

发现“<div class="book_pic">“是唯一的 ,复制这段代码到“内容标签编辑框”的“开始字符串处”。 “</div>”是“<div class="book_pic">”后面第一次出现的地方。复制“</div>”到“结束字符串”处。

火车采集器的所有版本均支持下载图片。这里所说的图片是 源代码里的有<img标签的图片地址。所以只要您采集的源代码里有这这样的图片代码,采集器会将其中的图片下载到本地。如果是一个直接的图片地址,如http://www.locoy.com/logo.gif ,采集器是会做为文件下载。下载文件是需要收费版本支持。图片的下载设置如下:

1.在内容页标签编辑框中选中下载图片。

clip_image050[3]

2.任意格式文件下载及保存设置

收费版本的程序支持任意文件的下载。具体是使用时选中探测文件并下载即可。 需要注意的是:

clip_image052[3]

clip_image054[3]

这个功能可以下载论坛附件或要下载站的文件,比如论坛附件下载地址是d.asp?id=1,那么只要在下载文件地必须包含里写上d.asp就可以下载源码里包含这个字符串链接中的附件了。 注意这个在有些站是需要你登陆后才可以下载。所以有时下载不了,请注意您是否登陆或是有权限下载那些文件。还有的情况是你获取的登陆信息不正确,相当于没登陆.也会导致下载不成功。

如果使用单一的地址,比如直接是一个文件的地址,程序会自动去下载并判断文件类型。 如果是多个文件实际地址请用分隔符 #||# 相连,程序会分别进行下载.

在下载前请做好测试。具体在规则测试那里可以看到下载结果。

clip_image056[3]

3.设置保存目录:

文件的命名:为了防止同一目录下保存太多的文件,采集器支持随机目录保存方式,默认按时间按一定的规则生成目录保存文件。

看图,注意这里的绿色符号都是用特殊含义的,yyyy代表是年,如最后产生的就是2009,MM是月,其它类推,如果你要命名为yyyy,则需要对绿色字符进行转义,即\y\y\y\y,前一个斜杠即可.文件保存地址也一样.可以设置同步(边下内容边下图片),异步(下完内容在下图片)。

clip_image058[3]

设置好图片保存目录后,便可以点击“确定”按钮后点“测试”按钮可以把图片下载到本地来,如图:

clip_image060[3]

测试之后得到的图片保存在\Data\TestOnly文件下。采集保存到你设置的目录下面。看下图:

clip_image062[3]

在上面也可以选择“使用自定义固定格式的数据”

clip_image064[3]

具体怎么实现这这里不讲了 ,因为很少选择它。

“页面内容标签定义”有个“同时采集多页页面“ 什么意思呢?

看下图:

clip_image066[3]

点击“同时采集多页页面“ 按钮 便进入如下图:

clip_image068[3]

何为多页?本来我们是从网址采集那块采集到网址,再对这个网址(也叫默认页)进行采集。但是有时有许多信息他并不在一个页面上,而是和这个默认页有一定的关系,要不他网址在默认页里,要不他网址和默认页网址有联系。我们就这个问题来讲一下具体的解决办法。

这里有两种途径获得第三个网址,我们先讲从默认页网址替换得到新网址。我们以http://data.movie.xunlei.com/movie/39843 这个页面为例,比如我们要获得全部的”剧情简介“,就得进入一下页,刚好这两页有关系,”剧情简介“页面的地址是 http://movie.xunlei.com/movie/39843/introduction,只是多了一个 introduction ,这里可以使用普通替换,也可以使用正则。我们看一下。

clip_image070[3]

这样就可以获得所需要的了。当然这里组合也可以有多个$的,比如$1,$2。

下边我们说一下用默认页源代码中获得网址的方法来处理上边的网址,

clip_image072[3]

这样就可以获得和上边一样的效果了。

通过上面的 标题和图片标签设置 并测试之后没有问题了,还不能确定对于其他的内容地址是可行的,因此你要多测试几个内容页地址,测试其它地址和上面一样。测试完之后便可以进行发布内容了。

5.发布内容:

如下图:方式一,方式三,方式四都需要收费,在这里便不讲了。

clip_image074[3]

导出采集数据为txt,csv,sql格式:

除了能将采集的数据Web发布到网站,直接导入数据库,采集器还可以将数据保存到本地。目前采集器支持的文件格式有:

clip_image076[3]

1.csv 您只需要选择一下csv文件夹的目录,采集器会生成一个csv文件,文件里的标签次序和在任务编辑里的标签排序是一致的。

2.html 您需要指定html模板,该模板的内容和web发布模块的方式基本一致。比如[标签:标题]将会被替换成实际采集的内容。

3.txt 程序将所有的记录保存在一个txt文本里,每个标签之间用换行间隔。

注意:本地文件的编码需要注意,默认的保存方式是和采集源一样的编码。如果您指定了某种编码,请将html文件也保存成相应的编码文件。 请按下图进行设置。

clip_image078[3]

设置完之后便可以采数据了。

6.抓数据:

点击该站点下要执行的任务 ,右击选择“开始任务采集” 便出现如图:

clip_image080[3]

当运行完之后便产生一个文件,打开文件便是抓取下来的内容。

如果你抓取了图片,便会出现 :

clip_image082[3]

图片保存在你设置的图片路径。看下图:

clip_image083[3]

 评论这张
转发至微博

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值