大家好,我是 👉【Python当打之年】
上一篇文章 【爬取《白蛇2:青蛇劫起》20000+影评数据分析可视化】中我们根据20000+条猫眼影评分析了观众对国产动漫的一些看法,本期给大家介绍一下如何爬取这20000+数据,希望对你有所帮助,当然也可以在后台回复 –【白蛇2】– 直接获取。
1. 网页分析
网页版的猫眼只能显示有限的评论,APP版本可以看到所有评论,所以我们根据手机版网址来爬取数据。
手机版评论网址:
https://m.maoyan.com/mmdb/comments/movie/1200486.json?_v_=yes&offset=0&startTime=2018-08-01%2022%3A30%3A34
结果:
评论是和时间有关系的,所以我们找到时间规律就可以爬取想要时间段的评论内容了。
我们把刚才获取的评论用json解析器解析一下:
有我们需要的评论和时间,包括其他的一些字段,这样我们就有了时间来源,一直递推即可获取所有评论时间。
2. 数据爬取
2.1 构造评论url
代码:
start_time = '2021-09-01 00:00:00'
end_time = '2021-08-25 00:00:00'
while start_time > end_time:
url = 'https://m.maoyan.com/mmdb/comments/movie/{}.json?_v_=yes&offset=0&startTime='.format(filmid) + start_time.replace(' ', '%20')
print(start_time)
time.sleep(random.uniform(3.1, 5.1))
allinfo = get15info(url, headers)
if allinfo:
start_time = allinfo[-1][5]
start_time = datetime.strptime(start_time, '%Y-%m-%d %H:%M:%S') - timedelta(seconds=1)
start_time = datetime.strftime(start_time, '%Y-%m-%d %H:%M:%S')
insert2excel(filepath, allinfo)
else:
start_time = datetime.strptime(start_time, '%Y-%m-%d %H:%M:%S') - timedelta(minutes=5)
start_time = datetime.strftime(start_time, '%Y-%m-%d %H:%M:%S')
防止每次爬取的第一条与上一次爬取的最后一条数据重复(时间一致),可以使用timedelta(seconds=1)函数在循环时时间减去1秒。
2.2 字段解析
这里仅解析用户id、用户名、城市、评分、评论内容、评论时间,如需其他字段,可根据需要增减。
def get15info(url, headers):
allinfo = []
try:
r = requests.get(url, headers=headers)
r.raise_for_status()
r.encoding = 'utf-8'
datas = json.loads(r.text)
for item in datas['cmts']:
# ID
ID = item['id'],
# 用户名
nickName = item['nickName'],
# 城市
cityName = item['cityName'] if 'cityName' in item else '', # 处理cityName不存在的情况
# 评论
content = item['content'].replace('\n', ' '), # 处理评论内容换行的情况
# 评分
score = item['score'],
# 评论时间
startTime = item['startTime']
comments = [ID[0], nickName[0], cityName[0], score[0], content[0], startTime]
print(comments)
allinfo.append(comments)
return allinfo
except:
if len(allinfo)>0:
return allinfo
结果:
3. 数据保存
这里我们使用openpyxl库进行保存,小伙伴们也可以保存成csv格式或者保存至数据库中进行后续分析。
def insert2excel(filepath,allinfo):
try:
if not os.path.exists(filepath):
tableTitle = ['id', '用户名', '城市', '评分', '评论', '评论时间']
wb = Workbook()
ws = wb.active
ws.title = 'sheet1'
ws.append(tableTitle)
wb.save(filepath)
time.sleep(3)
wb = load_workbook(filepath)
ws = wb.active
ws.title = 'sheet1'
for info in allinfo:
ws.append(info)
wb.save(filepath)
print('文件已更新')
except:
print('文件更新失败')
结果:
数据分析部分:
数据分析可视化在线运行:
https://www.heywhale.com/mw/project/6132e5898608050017004a5f
以上就是本期为大家整理的全部内容了,赶快练习起来吧,原创不易,喜欢的朋友可以点赞、收藏也可以分享(注明出处)让更多人知道。
推荐阅读
123个Pandas常用基础指令,真香!
爬虫+可视化 | 动态展示2020东京奥运会奖牌世界分布
Pandas+Pyecharts | 北京某平台二手房数据分析+可视化
Pandas+Pyecharts | 2021中国大学综合排名分析+可视化
可视化 | Python绘制高颜值台风地理轨迹图
可视化 | 用Python分析近5000个旅游景点,告诉你假期应该去哪玩
可视化 | Python精美地图动态展示近20年全国各省市GDP
可视化 | Python陪你过520:在你身边,你在身边
爬虫 | Python送你王者荣耀官网全套皮肤
爬虫 | 用python构建自己的IP代理池,再也不担心IP不够用啦!
技巧 | 20个Pycharm最实用最高效的快捷键(动态展示)
技巧 | 5000字超全解析Python三种格式化输出方式【% / format / f-string】
技巧 | python定时发送邮件(自动添加附件)
爬虫 | Python送你王者荣耀官网全套皮肤
爬虫 | 用python构建自己的IP代理池,再也不担心IP不够用啦!
文章首发微信公众号 “Python当打之年” ,每天都有python编程技巧推送,希望大家可以喜欢