1.数据清洗
完整的分析过程:
–数据的获取:通过爬虫获得(urllib | requests <获取页面内容> + re | bs4 <分析页面内容> )
–数据清洗:按照一定的格式文本进行处理
这里有本地文件 26425063.txt
规则是获得其中的中文和英文字母
这是本地文件的部分内容
2.词云分析
这是代码,其中可以强调切割方法
其中处理中文数据是应用本地的a.tff文件
返回结果
这是newword文件的内容,旨在强调切割方法
生成词云如下
这也是douban.png图片的内容
3.电影影评词云分析
返回以下代表执行成功
这是词云样式图片
其中词云字体只会在有颜色的部分显示,词语在文件出现的次数越多,显示的字体就越大
这也是代码中的mao.png图片
生成词云图片
词云大概是猫型