前言:
在上一篇《网络爬虫初步:从訪问网页到数据解析》中。我们讨论了怎样爬取网页。对爬取的网页进行解析,以及訪问被拒绝的站点。在这一篇博客中,我们能够来了解一下拿到解析的数据能够做的事件。在这篇博客中,我主要是说明要做的两件事。一是入库,二是遍历拿到的链接继续訪问。如此往复。这样就构成了一个网络爬虫的雏形。
笔者环境:
系统: Windows 7
CentOS 6.5
执行环境: JDK 1.7
Python 2.6.6
IDE: Eclipse Release 4.2.0
PyCharm 4.5.1
数据库: MySQL Ver 14.14 Distrib 5.1.73
效果图:
这里仅仅截取開始的一部分数据。
这些数据我是保存在MySQL中的。
思路梳理:
前面说到。我们拿到数据要做两件:数据保存与数据分析。
我们整个逻辑过程是这种:
1.Java传递链接參数给Python;
2.Python解析HTML返回必要信息给Java;
3.Java拿到数据进行入库;
4.对解析出的有效链接进行继续遍历(这里是採用图的广度优先遍历)
5.重复以上的4个步骤,直到没有可继续訪问的有效链接为止,这里是使用递归迭代。
关于数据保存,倒是没有什么好说的。由于我是在Linux(CentOS)下执行程序的。所以,你的Linux中必需要有MySQL,另外,我是通过Java来进行数据库操作的。所以这里你的系统中也有要Mysql的Java驱动包。
开发过程:
1.Python解析数据
get_html_response.py
# encoding=utf-8
import HTMLParser
import utils as utils
class ListWebParser(HTMLParser.HTMLParser):
def __init__(self):
HTMLParser.HTMLParser.__init__(self)
self.tagAFlag = False
self._name = None
self._address = None
self._info = []
def handle_starttag(self, tag, attrs):
if tag == 'a':
for name, value in attrs:
if name == 'href' and utils.isMatch(value, '^http'):
self._info.append((self._name, self._address))
self.tagAFlag = True
self._address = value
self._name = None
# print 'Address: ', value
def handle_endtag(self, tag):
if tag == 'a':
self.tagAFlag = False
def handle_data(self, data):
if self.tagAFlag:
name = data.decode('utf-8')
if self._name:
self._name = str(self._name) + ' ' + name
else:
self._name = name
def getLinkList(self):
return self._info
html_parser.py
# encoding=utf-8
'''
对Html文件进行解析
'''
import sys
reload(sys)
sys.setdefaultencoding('utf8')
from list_web_parser import ListWebParser
import get_html_response as geth
def main(html):
myp = ListWebParser()
get_html = geth.get_html_response(html)
myp.feed(get_html)
link_list = myp.getLinkList()
myp.close()
for item in link_list:
if item[0] and item[1]:
print item[0], '$#$', item[1]
if __name__ == "__main__":
if not sys.argv or len(sys.argv) < 2:
print 'You leak some arg.' # http://www.cnblogs.com/Stone-sqrt3/
main(sys.argv[1])
2.Java入库
对于Java中对数据库的操作。也没什么好说说明的。假设你写地JDBC。那么这对于你而言将是小菜一碟。关键代码例如以下:
public class DBServer {
private String mUrl = DBModel.getMysqlUrl();
private String mUser = DBModel.getMysqlUesr();
private String mPassword = DBModel.getMysqlPassword();
private String mDriver = DBModel.getMysqlDerver();
private Connection mConn = null;
private Statement mStatement = null;
public DBServer() {
initEvent();
}
private void initEvent() {
mUrl = DBModel.getMysqlUrl();
mUser = DBModel.getMysqlUesr();
mPassword = DBModel.getMysqlPassword();
mDriver = DBModel.getMysqlDerver();
try {
Class.forName(mDriver).newInstance();
mConn = DriverManager.getConnection(mUrl, mUser, mPassword);
mStatement = mConn.createStatement();
} catch (Exception e) {
e.printStackTrace();
}
}
/**
* 数据库查询
* TODO
* DBServer
* @param sql
* 查询的sql语句
*/
public void select(String sql) {
try {
ResultSet rs = mStatement.executeQuery(sql);
while (rs.next()) {
String name = rs.getString("name");
System.out.println(name);
}
rs.close();
} catch (SQLException e) {
e.printStackTrace();
}
}
/**
* 插入新数据
* DBServer
* @param sql
* 插入的sql语句
*/
public int insert(String sql) {
try {
int raw = mStatement.executeUpdate(sql);
return raw;
} catch (SQLException e) {
e.printStackTrace();
return 0;
}
}
/**
* 某一个网址是否已经存在
* DBServer
* @param sql
* 查询的sql语句
*/
public boolean isAddressExist(String sql) {
try {
ResultSet rs = mStatement.executeQuery(sql);
if (rs.next()) {
return true;
}
rs.close();
} catch (SQLException e) {
e.printStackTrace();
}
return false;
}
public void close() {
try {
if (mConn != null) {
mConn.close();
}
if (mStatement != null) {
mStatement.close();
}
} catch (Exception e) {
e.printStackTrace();
}
}
}
3.Java进行递归訪问链接
/**
* 遍历从某一节点開始的全部网络链接
* LinkSpider
* @param startAddress
* 開始的链接节点
*/
private static void ErgodicNetworkLink(String startAddress) {
SpiderQueue queue = getAddressQueue(startAddress);
// System.out.println(queue.toString());
SpiderQueue auxiliaryQueue = null; // 记录訪问某一个网页中解析出的网址
while (!queue.isQueueEmpty()) {
WebInfoModel model = queue.poll();
// TODO 推断数据库中是否已经存在
if (model == null || DBBLL.isWebInfoModelExist(model)) {
continue;
}
// TODO 假设不存在就继续訪问
auxiliaryQueue = getAddressQueue(model.getAddres());
System.out.println(auxiliaryQueue);
// TODO 对已訪问的address进行入库
DBBLL.insert(model);
if (auxiliaryQueue == null) {
continue;
}
while (!auxiliaryQueue.isQueueEmpty()) {
queue.offer(auxiliaryQueue.poll());
}
}
}
/**
* 获得某一链接下的全部合法链接
* LinkSpider
* @param htmlText
* 网络链接
* @return
*/
private static SpiderQueue getAddressQueue(String htmlText) {
if (htmlText == null) {
return null;
}
SpiderQueue queue = PythonUtils.getAddressQueueByPython(htmlText);
return queue;
}
本程序的内存及线程情况:
内存:
线程:
爬取速度:
要点说明:
1.系统中的MySQL及MySQL包
你的Linux中必需要有MySQL,另外。我是通过Java来进行数据库操作的,所以这里你的系统中也有要Mysql的Java驱动包。这一点在上面也有说明,只是这里还是要强调一下。假设你写过JDBC的程序,那么这个驱动包。我想你应该是有的,假设你没写过。那就去下一个吧。
2.须要一个辅助Queue
在上面的代码中,我们能够看到我们有两个SpiderQueue。一个是我们待訪问的队列queue,保存我们将要訪问的链接列表。还有一个是辅助队列auxiliaryQueue,用于获得从Python解析出来的数据。
3.使用图的广度优先搜索算法进行链接爬取
这是从链接的相关性上考虑的。
假设选择深度优先。那么随着遍历的深入。可能链接的相关性就会越来越小了。而广度优先搜索则不会这样,由于我们都知道在同一个页面中的链接总是会由于一些因素要展示在同一个页面中,那么它们的相关性就会比較靠谱。
4.单线程与多线程
完毕以上操作,假设你的程序正常执行。在前期是比較快的,但是到了稳定期的时候就通常是1s钟出一条数据。
这个有点慢,我会在下一篇博客利用多线程来解决问题。
5.MySQL中加入一个叫cipher_address的字段
此字段用于address的加密生成(MD5 or SHA1)。以下举个样例:
可能你有一个疑问,为什么要这个字段?假设你这样思考了。那么对于你,是故意的。我们知道事实上MySQL对一个非常长的字符串进行select的时候。是相对来说比較慢的。这时,我们能够把这个address进行哈希一下,形成一个长度适中。又比較相近的字符串,这样MySQL在比較时会easy一些(当然,你能够不使用这个字段)。
6.OOM异常
全然依照本文中的代码和解说来进行编码的话,会获得一个OOM的异常(我的程序是跑了1天半的时时间)。
例如以下:
数量大概在23145条左右
对于这一点在上面关于内存和线程的展示图中能够看到原因。