- 博客(2)
- 收藏
- 关注
转载 网络爬虫-URL去重
转载自:http://hi.baidu.com/shirdrn/blog/item/40ed0fb1ceac4d5c0923029d.html 在爬虫启动工作的过程中,我们不希望同一个网页被多次下载,因为重复下载不仅会浪费CPU机时,还会为搜索引擎系统增加负荷。而想要控制这种重复性下载问题,就要考虑下载所依据的超链接,只要能够控制待下载的URL不重复,基本可以解决同一个网页重复下载的问题。 非
2012-05-28 21:19:52 13708
转载 二叉树中的最近公共祖先问题
二叉树中的最近公共祖先问题 2011-02-11 题目:要求寻找二叉树中两个节点的最近的公共祖先,并将其返回。 view source print? 1 class Node 2 { 3 Node * left; 4 Node *
2012-05-23 18:05:30 731
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人