在做课题的时候老师给了一个建议:去找找非结构化数据。
说实话我们连结构化数据都整不明白,还妄想尝试处理非结构化数据,于是尝试爬取了一下微博评论区。
讲太多会被墙审核不通过
先理解一个叫做开发者界面的玩意
右侧这部分就是开发者界面,按F12进入,平时闲着没事干在浏览器中瞎按键盘的时候一定按出来过。
先打开你想要爬取的帖子评论区,找到这个形式的一条记录,在XHR中:
hotflow?id=4874139502382313&mid=4874139502382313&max_id_type=0
放代码
import pprint
import re
from time import sleep
import requests
import json
import pandas as pd
# import csv
#
# f = open('微博评论.csv',mode='a',encoding='utf-8',newline='')
# csv.DictWriter(f,fieldnames=[])
mid = '4887829387415326'
# def get_comment(num):
url = "https://m.weibo.cn/comments/hotflow?id=4874139502382313&mid=4874139502382313&max_id_type=0"
#+ str(mid) + '&page=' + str(num)
headers = {
'User-Agent':'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.87 Mobile Safari/537.36'
,'cookie':'###这个去找自己的,同时这个是及其重要的隐私数据,不要让别知道###' }###注释在里面
response = requests.get(url = url,headers=headers)
print(response.text)
print(response.json())
lis = []
for index in response.json()['data']['data']: #键值对取值
content=''.join(re.findall('[^\x00-\xff]+',index['text']))
index['text']
#用字典接收一下
dit={
'用户':index['user']['screen_name'],
'地区':index['source'].replace('来自',''),
'评论':content,
}
lis.append(dit)
print(dit)
# for i in range(1, 5):
# get_comment(i)
# print('第%s页已爬取结束' % i)
# sleep(3)
#以上注释试图完成翻页功能,但是微博的评论区是下滑加载更多评论的,所以对微博评论没有用,但是这个思路可以用在其他网站的评论爬取中
pd_data = pd.DataFrame(lis)
pd_data.to_excel('微博评论.xlsx',sheet_name='sheet')
这算是一个不需要理解直接按步骤做就能完成爬虫功能的笔记。