nutch crawl的每一步

10 篇文章 0 订阅
crawl的每一步具体发生了什么。 

==============准备工作====================== 
(Windows下需要cygwin) 
从SVN check out代码; 
cd到crawler目录; 

==============inject========================== 

$ bin/nutch inject crawl/crawldb urls 
Injector: starting 
Injector: crawlDb: crawl/crawldb 
Injector: urlDir: urls 
Injector: Converting injected urls to crawl db entries. 
Injector: Merging injected urls into crawl db. 
Injector: done 

crawldb目录在这时生成。 

查看里面的内容: 
$ bin/nutch readdb crawl/crawldb -stats 
CrawlDb statistics start: crawl/crawldb 
Statistics for CrawlDb: crawl/crawldb 
TOTAL urls: 1 
retry 0: 1 
min score: 1.0 
avg score: 1.0 
max score: 1.0 
status 1 (db_unfetched): 1 
CrawlDb statistics: done 

===============generate========================= 

$bin/nutch generate crawl/crawldb crawl/segments 
$s1=`ls -d crawl/segments/2* | tail -1` 
Generator: Selecting best-scoring urls due for fetch. 
Generator: starting 
Generator: segment: crawl/segments/20080112224520 
Generator: filtering: true 
Generator: jobtracker is 'local', generating exactly one partition. 
Generator: Partitioning selected urls by host, for politeness. 
Generator: done. 

segments目录在这时生成。但里面只有一个crawl_generate目录: 
$ bin/nutch readseg -list $1 
NAME GENERATED FETCHER START FETCHER END 
FETCHED PARSED 
20080112224520 1 ? ? ? ? 

crawldb的内容此时没变化,仍是1个unfetched url。 

=================fetch============================== 

$bin/nutch fetch $s1 
Fetcher: starting 
Fetcher: segment: crawl/segments/20080112224520 
Fetcher: threads: 10 
fetching http://www.complaints.com/directory/directory.htm 
Fetcher: done 

segments多了些其他子目录。 
$ bin/nutch readseg -list $s1 
NAME GENERATED FETCHER START FETCHER END 
FETCHED PARSED 
20080112224520 1 2008-01-12T22:52:00 2008-01-12T22:52:00 
1 1 

crawldb的内容此时没变化,仍是1个unfetched url。 

================updatedb============================= 
$ bin/nutch updatedb crawl/crawldb $s1 
CrawlDb update: starting 
CrawlDb update: db: crawl/crawldb 
CrawlDb update: segments: [crawl/segments/20080112224520] 
CrawlDb update: additions allowed: true 
CrawlDb update: URL normalizing: false 
CrawlDb update: URL filtering: false 
CrawlDb update: Merging segment data into db. 
CrawlDb update: done 

这时候crawldb内容就变化了: 
$ bin/nutch readdb crawl/crawldb -stats 
CrawlDb statistics start: crawl/crawldb 
Statistics for CrawlDb: crawl/crawldb 
TOTAL urls: 97 
retry 0: 97 
min score: 0.01 
avg score: 0.02 
max score: 1.0 
status 1 (db_unfetched): 96 
status 2 (db_fetched): 1 
CrawlDb statistics: done 

==============invertlinks ============================== 
$ bin/nutch invertlinks crawl/linkdb crawl/segments/* 
LinkDb: starting 
LinkDb: linkdb: crawl/linkdb 
LinkDb: URL normalize: true 
LinkDb: URL filter: true 
LinkDb: adding segment: crawl/segments/20080112224520 
LinkDb: done 

linkdb目录在这时生成。 

===============index==================================== 
$ bin/nutch index crawl/indexes crawl/crawldb crawl/linkdb crawl/segments/* 
Indexer: starting 
Indexer: linkdb: crawl/linkdb 
Indexer: adding segment: crawl/segments/20080112224520 
Indexing [http://www.complaints.com/directory/directory.htm] with analyzer 
org 
apache.nutch.analysis.NutchDocumentAnalyzer@ba4211 (null) 
Optimizing index. 
merging segments _ram_0 (1 docs) into _0 (1 docs) 
Indexer: done 

indexes目录在这时生成。 

================测试crawl的结果========================== 
$ bin/nutch org.apache.nutch.searcher.NutchBean complaints 
Total hits: 1 
0 20080112224520/http://www.complaints.com/directory/directory.htm 
Complaints.com - Sitemap by date ?Complaints ... 

参考资料: 
【1】Nutch version 0.8.x tutorial 
http://lucene.apache.org/nutch/tutorial8.html 
【2】 Introduction to Nutch, Part 1: Crawling 
http://today.java.net/lpt/a/255 

[实际写于Jan 13, 12:10 am 2008] 
在使用Python来安装geopandas包时,由于geopandas依赖于几个其他的Python库(如GDAL, Fiona, Pyproj, Shapely等),因此安装过程可能需要一些额外的步骤。以下是一个基本的安装指南,适用于大多数用户: 使用pip安装 确保Python和pip已安装: 首先,确保你的计算机上已安装了Python和pip。pip是Python的包管理工具,用于安装和管理Python包。 安装依赖库: 由于geopandas依赖于GDAL, Fiona, Pyproj, Shapely等库,你可能需要先安装这些库。通常,你可以通过pip直接安装这些库,但有时候可能需要从其他源下载预编译的二进制包(wheel文件),特别是GDAL和Fiona,因为它们可能包含一些系统级的依赖。 bash pip install GDAL Fiona Pyproj Shapely 注意:在某些系统上,直接使用pip安装GDAL和Fiona可能会遇到问题,因为它们需要编译一些C/C++代码。如果遇到问题,你可以考虑使用conda(一个Python包、依赖和环境管理器)来安装这些库,或者从Unofficial Windows Binaries for Python Extension Packages这样的网站下载预编译的wheel文件。 安装geopandas: 在安装了所有依赖库之后,你可以使用pip来安装geopandas。 bash pip install geopandas 使用conda安装 如果你正在使用conda作为你的Python包管理器,那么安装geopandas和它的依赖可能会更简单一些。 创建一个新的conda环境(可选,但推荐): bash conda create -n geoenv python=3.x anaconda conda activate geoenv 其中3.x是你希望使用的Python版本。 安装geopandas: 使用conda-forge频道来安装geopandas,因为它提供了许多地理空间相关的包。 bash conda install -c conda-forge geopandas 这条命令会自动安装geopandas及其所有依赖。 注意事项 如果你在安装过程中遇到任何问题,比如编译错误或依赖问题,请检查你的Python版本和pip/conda的版本是否是最新的,或者尝试在不同的环境中安装。 某些库(如GDAL)可能需要额外的系统级依赖,如地理空间库(如PROJ和GEOS)。这些依赖可能需要单独安装,具体取决于你的操作系统。 如果你在Windows上遇到问题,并且pip安装失败,尝试从Unofficial Windows Binaries for Python Extension Packages网站下载相应的wheel文件,并使用pip进行安装。 脚本示例 虽然你的问题主要是关于如何安装geopandas,但如果你想要一个Python脚本来重命名文件夹下的文件,在原始名字前面加上字符串"geopandas",以下是一个简单的示例: python import os # 指定文件夹路径 folder_path = 'path/to/your/folder' # 遍历文件夹中的文件 for filename in os.listdir(folder_path): # 构造原始文件路径 old_file_path = os.path.join(folder_path, filename) # 构造新文件名 new_filename = 'geopandas_' + filename # 构造新文件路径 new_file_path = os.path.join(folder_path, new_filename) # 重命名文件 os.rename(old_file_path, new_file_path) print(f'Renamed "{filename}" to "{new_filename}"') 请确保将'path/to/your/folder'替换为你想要重命名文件的实际文件夹路径。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值