-
第一步,以鄙人为例,鼠标悬浮在博客头像,点击粉丝。
-
第二步,进入粉丝页后点击键盘的F12(或者点击鼠标右键,点击网页检查)后会弹出一个进行网页分析的窗口,点击窗口上的网络,然后在筛选输入框中输入:get-fans,接着刷新一下页面,即可看到装有粉丝数据的数据包。
- 注意:如果不出意外的话那就出意外了😜,这时我们可能只看到一个数据包,出现这种情况别慌,鼠标放在页面上滚动即可,这时就会看到有多个数据包冒出。(拿捏了老铁们儿😎)
- 注意:如果不出意外的话那就出意外了😜,这时我们可能只看到一个数据包,出现这种情况别慌,鼠标放在页面上滚动即可,这时就会看到有多个数据包冒出。(拿捏了老铁们儿😎)
-
第三步,点击数据包,点击预览,即可看到粉丝的相关数据,关键来了,这些数据中没有我们想要的IP所属地,你说,这咋整。我说,先别急,先分析分析里面有啥。
- 经过哥的一整套稀里哗啦的分析,真相只有一……(先别逼叨了)其实发现数据包中有两个主要信息:粉丝博客链接、粉丝的id,这些信息有什么用呢?
- 经过哥的一整套稀里哗啦的分析,真相只有一……(先别逼叨了)其实发现数据包中有两个主要信息:粉丝博客链接、粉丝的id,这些信息有什么用呢?
-
第四步(哈哈哈,被虚晃了吧),又经过哥的一套叽叽喳喳的分析,发现粉丝博客链接中,也就是粉丝的博客主页有我们想要的IP所属地
-
而id呢,id的作用就是获取下一个数据包的所有粉丝信息。通过分析数据包的链接可以发现,数据包中只有两个地方不同:page值和id值,于是再回到数据包本身,每个粉丝都有id,那么哪一个id是下个数据包链接中的id呢?答案是:最后一个粉丝的id(这时候我应该听到掌声雷动了)
🌴源代码
根据以上稀里哗啦叽叽喳喳的操作,我们来编写代码。
代码编写思路:
- 先对网页分析抓到的第一个数据包发送请求,获取到我们想要的博客链接和id值,然后设置一个page值,它的值自增加一,获取到的id值我们只需要最后一个粉丝的id值,最后拼接链接,重新发送请求,再重复以上步骤。
- 等获取了所有的博客链接,我们使用多线程的方式对所有博客链接发送请求,获取IP所属地,最后保存在json文件中。
注意两点:
- https://blog.csdn.net/community/home-api/v2/get-fans-list?page=1&pageSize=20&id={id}&noMore=false&blogUsername=,最后的等号后面写上自己的博客名
- ‘User-Agent’: ‘’,使用自己的User-Agent哈
源码如下👇
(如有错误,请在评论区中指出哦~😁)
import requests
import json
import threading
from jsonpath import jsonpath
import re
import time
# 博客名和博客链接
def fans\_data():
li_name = [] # 存储博客名
blogUrl = [] # 存储博客链接
id = 0
i = 0
while True:
if i == 0: # 如果是第一页的粉丝数据
url = f'https://blog.csdn.net/community/home-api/v2/get-fans-list?page=1&pageSize=20&id={id}&noMore=false&blogUsername='
else:
url = f'https://blog.csdn.net/community/home-api/v2/get-fans-list?page={i+1}&pageSize=20&id={id}&noMore=false&blogUsername='
try:
res = requests.get(url, headers=headers)
json_data = json.loads(res.text)
# 获取粉丝博客名
li_name += jsonpath(json_data, '$..username')
# 获取粉丝博客链接
blogUrl += jsonpath(json_data, '$..blogUrl')
# 获取粉丝博客id
id = jsonpath(json_data, '$..id')[-1]
print(id)
except:
break
i += 1
print(f'第{i}页粉丝数据获取成功!')
return li_name, blogUrl
# 获取粉丝的ip所属地
def fans\_area(url):
res = requests.get(url, headers=headers)
try:
area = re.findall('"region":"IP 属地:(.\*?)","msg"', res.text)[0]
except:
area = ''
li_area.append(area)
print('IP所属地获取成功!')
# 将粉丝的所属地和博客名保存到json文件中
def save\_json():
with open('CSDN粉丝信息.json', 'a', newline="", encoding='utf-8') as f:
for i in range(len(li_name)):
data = {'name':li_name[i], 'area':li_area[i]}
# 将字典转换成json数据
data_str = json.dumps(data, ensure_ascii=False)
f.write(data_str + ',' + '\n')
print('CSDN粉丝信息.json 文件保存成功!')
if __name__ == '\_\_main\_\_':
headers = {
'User-Agent': ''
}
li_area = [] # 存储所有粉丝的所属地
threads = []
li_name, blogUrl = fans_data() # 接收粉丝名和博客链接
print('-----开始获取粉丝所属地-----')
for i in blogUrl:
threads.append(threading.Thread(target=fans_area(i)))
for t in threads:
t.start()
save_json()
print(len(li_name))
效果展示👇
🌲数据清洗和保存
我们主要的目的就是获取所有粉丝的IP所属地并统计各个省份中的所有粉丝数量,然后在中国地图上展示出来。
于是我们需要对爬取到的信息进行清洗。
具体思路:使用强大的数据分析工具——pandas,通过它统计各个省份中的所有粉丝数量,然后将爬取的IP所属地信息进行清洗,将省、区、市这些词从IP所属地中删除,比如:将广西省清洗为广西。最后将所有统计和清洗的结果保存在json文件中。
🌴源代码
源码如下👇
(如有错误,请在评论区中指出哦~😁)
import pandas as pd
import json
from jsonpath import jsonpath
# 读取CSDN粉丝信息.json的内容
def read\_file():
li_area = []
with open('CSDN粉丝信息.json', 'r', encoding='utf-8') as f:
# 获取信息库中的json数据,并转换为Python字符串
data = json.load(f)
# 获取粉丝名字
fans_name = jsonpath(data, '$..name')
# 获取粉丝所属IP地址
fans_area = jsonpath(data, '$..area')
# 清洗数据
for i in fans_area:
if '省' in i or '市' in i:
li_area.append(i[:-1])
else:
li_area.append(i)
return li_area
# 清洗数据,统计各个省份中的粉丝数
def wash\_data(area):
df = pd.DataFrame({'area': area, 'num': [1 for i in range(len(area))]})
df = df.groupby('area').sum() # 将粉丝所属地进行分组统计
df.reset_index(inplace=True)
fans_area = df['area'].values # 统计中的所有IP所属地
area_num = df['num'].values # 各个所属地中粉丝的数量
return list(list(i) for i in zip(fans_area, area_num)) # 使用拉链函数将列表包起来
# 文件保存
def save\_file():
with open('ip所属地统计.json', 'a', newline="", encoding='utf-8') as f:
for i in range(len(province_list)):
data = {'area':province_list[i][0], 'num':str(province_list[i][1])}
# 将字典转换成json数据
data_str = json.dumps(data, ensure_ascii=False)
f.write(data_str + ',' + '\n')
if __name__ == '\_\_main\_\_':
fans_area = read_file()
province_list = wash_data(fans_area)
save_file()
🌲绘制地图
绘制地图所需要用到的模块就是:pyecharts,其貌不扬的可是数据可视化编程中的利器。
下载方式:pip install pyecharts(这都基操啦)
具体思路:通过读取我们清洗后的数据信息来进行地图的绘制。需要改的相关设置请看下图👇
实现效果如下👇
(神奇不,鼠标浮动在地图省份上,会出现粉丝对应省份中粉丝的数量)
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!