《复联4》影评抓取+词云+情感分析

本文使用Python的BeautifulSoup爬取了豆瓣上《复仇者联盟4》的前20页影评,通过词云展示了高频词汇,并利用SnowNLP进行情感分析。影评情感呈现“U”型分布,推测消极情绪源自对角色的不舍,积极情绪受“爱你三千遍”影响。同时介绍了如何在Anaconda环境中安装和配置词云库。
摘要由CSDN通过智能技术生成

复联4上映了!这次比美国还早了两天。很多人都去看了首映,各大媒体都被它刷屏。小编也是漫威迷,看了很多相关文章,觉得挺感兴趣的(文末有链接)因此也想搞搞事情,回顾一下从入门到放弃再到拾起的python,顺便蹭蹭热度。本文是比较简单入门级的操作,深入的以后有机会再写~

1.文本准备

使用beautifulsoup抓取豆瓣《复仇者联盟4》的影评(前20页)
目标url: https://movie.douban.com/subject/26100958/
代码如下:

import urllib.request
from bs4 import BeautifulSoup
def getHtml(url):
    """获取url页面"""
    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'}
    req = urllib.request.Request(url,headers=headers)
    req = urllib.request.urlopen(req)
    content = req.read().decode('utf-8')

    return content

def getComment(url):
    """解析HTML页面"""
    html = getHtml(url)
    soupComment = BeautifulSoup(html, 'html.parser')

    comments = soupComment.findAll('span', 'short')
    onePageComments = []
    for comment in comments:
        # print(comment.getText()+'\n')
        onePageComments.append(comment.getText()+'\n')

    return onePageComments

if __name__ == '__main__':
    f = open('复联4.txt', 'w', encoding='utf-8') 
    for page in range(10):  # 豆瓣爬取多页评论需要验证。
        url = 'https://movie.douban.com/su
  • 1
    点赞
  • 32
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值