python 爬取亚马逊评论_用Python爬取猫眼电影里柯南剧场版的6000条评论

前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

作者: 城南有梦

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取

http://note.youdao.com/noteshare?id=3054cce4add8a909e784ad934f956cef

一、工具及环境准备

Pycharm Python3.7.3

二、网页分析

打开猫眼电影官网,发现猫眼电影在电脑网页上看不了很多的评论,于是小编打开开发者模式(按F12),并将其切换到手机端模拟状态。就是下面这个样子:

40c4c662e9ac2b07d95c10f4874d2a22.png

然后,点击柯南的那一栏直到出现评论:

2f68618cc7759bbefa1703006e18512e.png

之后小编就在想,前后端数据的传输肯定是以json格式传输,于是小编就在过滤器那里输入json过滤出json数据,额,,,发现什么都没有,有点尴尬:

de3b0b445795f48fda4e9d076a8002cd.png

不过别急,等我往下滑就出来了:

070120615f11af449218c506ac7f2731.png

这样,相关的json数据就出来了,然后我们双击看一下是不是我们想要的评论:(密集恐惧者慎入)

349d426668ce07a089558e5241dac3c5.png

接下来我们继续分析json数据接口url的特点和json格式数据中评论所在的地方,分析发现url的前面都是这样:

41d451c78a072e1e3d972f29e48fe490.png

而变化的是后面的offset和ts,而且offset是从0开始之后每个增加15来开始增加的,而后面的ts则是一个长达13位的数据,不过如果对数字十分敏感的同学来说,1568854570326则是当前时间的毫秒级显示:

9248239196f1bd7debdd80a1b239b160.png

也就是说,这里传入的ts参数就是当前的时间戳,而小编也发现offset每次以15的数量增加,是因为每个json文件里对应15条评论。知道这些就好办了,接下来就是show time。

三、代码编写 总体思路:通过python构造对应的json文件的url,然后通过requests库的request.get方法向json文件的url发出请求从而获得对应的json文件数据,接下来就是对json文件数据的解析,获取我们所需要的评论,然后将评论存到一个.txt文件中,这样就完成了对评论数据的爬取了。代码如下:

import requestsimport timeimport jsonimport randomimport codecs# 伪装成浏览器my_headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 10.0;Win64; x64) ' 'AppleWebKit/537.6 (KHTML),like Gecko Chrome/61.0.3613.00 ' 'Safari/537.36', 'Referer':'http://m.maoyan.com/movie/1258394/comments?_v_=yes'}def requestURL(): baseUrl = 'http://m.maoyan.com/review/v2/comments.json' off = 0 time_now = (int)(round(time.time()*1000)) for i in range(400): parame = { 'movieId':'1258394', 'userId':'-1', 'offset':off, 'limit':'15', 'ts':time_now, 'type':'3' } off+=15 r = requests.get(baseUrl,params=parame,headers=my_headers,timeout=5) if r.status_code==200: data = json.loads(r.text) commentList = data['data']['comments'] time_now = (int)(round(time.time()*1000)) writeToFile(commentList,off) time.sleep(random.random()) else: print(r.status_code)def writeToFile(comments,off): fileName = '电影评论.txt' with codecs.open(fileName,'a+',encoding='utf-8') as f: for contain in comments: f.write(str(contain['content'])+'') f.close() print("已经爬取",off,"条数据")if __name__=='__main__': requestURL()

爬取过程:

35364719c90dc07b0e3ec5864a4c91b7.png

爬取结果:

5953e1558ee1c82eb9920e589dd84eca.png

四、对评论进行数据分析

代码如下:

import numpy as npfrom wordcloud import WordCloudimport PIL.Image as imageimport codecsif __name__=='__main__': with codecs.open("电影评论.txt",encoding='utf-8') as fp: text = fp.read() mask = np.array(image.open("柯南.jpg")) wordcloud = WordCloud(mask=mask,background_color='white').generate(text) wordcloud.to_file('词云柯南.jpg')
a8bdb93fb0522de11a4c33bf9a3836a3.png

.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值