用python爬取一个人所有信息_Python之爬虫(二十) Scrapy爬取所有知乎用户信息(上)...

本文介绍了如何使用Python的Scrapy框架爬取知乎用户的关注列表和被关注列表,以实现递归获取整个知乎用户网络。通过分析网络请求,找到获取用户详细信息的API地址,并解决请求头相关问题,为后续的爬虫代码实现打下基础。
摘要由CSDN通过智能技术生成

爬取的思路

首先我们应该找到一个账号,这个账号被关注的人和关注的人都相对比较多的,就是下图中金字塔顶端的人,然后通过爬取这个账号的信息后,再爬取他关注的人和被关注的人的账号信息,然后爬取被关注人的账号信息和被关注信息的关注列表,爬取这些用户的信息,通过这种递归的方式从而爬取整个知乎的所有的账户信息。整个过程通过下面两个图表示:

997599-20170721023134708-177129816.png

997599-20170721023148193-1974742425.png

爬虫分析过程

997599-20170721023220693-1484269289.png

其次我们要获取这个账号的关注列表和被关注列表

997599-20170721023248505-1468200452.png

这里我们需要通过抓包分析如果获取这些列表的信息以及用户的个人信息内容

当我们查看他关注人的列表的时候我们可以看到他请求了如下图中的地址

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值