neo4j安装_基于Neo4j的知乎关系爬虫

24270bc888dd5fcab478b171e543452d.png

贴一个16年当时写的一个爬取知乎用户follow关系的爬虫。做这个爬虫是受一个知乎专栏的启发Web Crawler with Python - 09.怎样通过爬虫找出我和轮子哥、四万姐之间的最短关系,我有部分代码参考了xlzd。由于当时也想了解一下NoSQL里Graph Database,于是花了几天时间做了一个简单的爬虫,感觉收获不少。封面图片可以理解成是一个六度分隔理论的直观展现,也是我在做爬虫时的意外验证。

环境安装

首先交代一下爬虫所用到的数据库和环境:

  • MongoDB

MongoDB一种基于分布式文件存储的数据库,属于NoSQL里的文档型数据库。它的性能较高,面向集合存储,爬虫所抓取的用户信息都存储在其中。
在python里使用MongoDB,只需要在本机下载安装MongoDB服务,在python的环境里安装pymongo依赖,pip install pymongo就可以了。如果嫌MongoDB的命令行操作不方便,可以装一个MongoDB的可视化工具Robomongo。

  • Neo4j

Neo4j是一个高性能的,NoSQL图形数据库,它将结构化数据存储在网络上而不是表中。Neo4j也可以被看作是一个高性能的图引擎,该引擎具有成熟数据库的所有特性。
关于Neo4j的安装,可以参考这篇博客Neo4j介绍与使用。Win7环境下,官网下载可以一键安装Neo4j。

Neo4j使用类似SQL的查询语言Cypher,关于Cypher的使用和简单demo,可以参考Cypher查询语言–Neo4j中的SQL。当然,为了减少学习Cypher的时间成本,我在python环境中安装了py2neopip install py2neo

py2neo的handbook见The Py2neo v3 Handbook。我对py2neo依赖库的理解:py2neo是一个Neo4j的客户端,其中对Neo4j的操作进行了封装。调用py2neo的一个函数,它会自动转化为Cypher语言并以HTTP API向Neo4j服务端口提交一个事务。当然它也支持直接提交Cypher语句到Neo4j执行,有些复杂的数据操作比如寻找两点之间最短路径,py2neo没有提供直接的函数调用,需要我们自己编写Cypher。

  • python依赖

requests
requests是一个非常好用的网络依赖包,API文档见Requests: HTTP for Humans。文档网站的名字“HTTP for Humans”,算是程序员的一种幽默吧。

BeautifulSoup
BeautifulSoup依赖库是一个非常实用的HTML解析器,不需要程序员再焦头烂额地写RegEx。虽然开发友好了,但解析时有时会出一些不可思议的bug。API文档见Beautiful Soup 4.2.0 文档。

爬虫概要

目的

我爬虫的目的非常简单,和开头的那篇专栏一样:知乎大V—轮子哥(vczh)需要通过多少人才能认识并关注我?这里的认识是指单方面的知道,即成为我的follower(不需要为followee,虽然这是肯定的),知道这世界原来还有个知乎用户“三天三夜”。

开发思路

爬虫从我自己的知乎出发,读取我的follower列表,对我的每个follower重复搜索操作,直到搜索到的follower list里有vczh。这个遍历是BFS的。当然,为了防止在广度优先搜索时,层与层之间节点数量扩张过快,我限制只搜索follower num不超过100的不活跃的小用户,当然我提前调查了轮子哥也有follow一些这种小用户。除了为了防止扩张过快导致的存储空间过大,这样做也给验证六度分隔理论提了更为苛刻的条件,毕竟轮子哥通过其他大V能follow到我的概率是远大于通过小用户的。

代码相关

整个爬虫的代码我push到Github上,附上链接。(这套代码可能已经因为知乎改版不能直接运行了,但可以分享一下过程思路)


贴上几个想到的小细节:

  • 这个爬虫需要自己的知乎cookie才能爬取。建议使用chrome,安装EditThisCookie插件,将知乎的cookie复制粘贴到zhihu_cookie.json文件。
  • 知乎用户的唯一性不是靠用户名,而是html里内嵌隐藏的data-id,在ajax获取数据是发送的表单数据里也需要这个值。所以Neo4j中使用此值可以唯一标识用户。
  • BeautifulSoup的官方文档里的一张解析器对比表格

98fecec01f7877cc5281210ae880908f.png
BeautifulSoup解析器对比

实际使用中,在解析https://www.zhihu.com/people/hong-ming-da这条链接时,lxml解析一直都会出错,换成html.parser后解析成功。所以html.parser虽然解析速度慢,但容错性更好一点。

  • 代码中有关知乎爬虫的代码,我是在egrcc/zhihu-python的基础上改动的,非常感谢原作者的分享。
  • 其他的细节想到后再补充。

爬取结果

爬虫程序在爬了23928个用户才停下来,即找到了轮子哥。这是爬完的部分用户图:

92e3a3e8dd311353718d1854babe33ec.png
部分用户关系图

在命令行执行Cypher语句:MATCH (a {_id : '0970f947b898ecc0ec035f9126dd4e08'}), (b {_id : 'bd648b6ef0f14880a522e09ce2752465'}), p = allShortestPaths( (a)-[*..200]->(b) ) RETURN p可以得到轮子哥到我的最短路径:

9dbfafda1444ed8f8a35e9b887ed61a1.png
最短路径图

可以发现:轮子哥到我,中间正好经过了6个人。这条路的生成条件是较为严格的。不仅是因为我只选择的小用户进行爬取,而且要知道我的follower目前是只有一个的,轮子哥要连接到我只能通过他。虽然实验得到的 6 可能和六度分隔理论恰巧吻合,但鉴于路径选择的苛刻条件,六度的6也许并不只是一种猜想。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值