基于selenium并用Gpt完善的某东评论爬取分析

一. 功能:

功能:本代码简单爬取了某东商品的所有评论,并对评论进行TF-IDF词频分析,绘制不同词性的词云和统计条形图饼图,以及对评论进行情感分析,找到好评并绘制出好评词云词频

二. 使用方法:

  1. 将需要爬取的所有链接放在根目录下的/urls文件夹中的urls.xlsx文件中按列排好(不需要名称等,只需要放链接)如图:
    urls.xlsx文件示意图

  2. 将EdgeDriver放在爬取商品评论.py中相应的位置(我指定的是根目录下),在根目录下新建几个文件夹“comments”,“cost”用于储存返回的结果(也可以修改代码,使用mkdir和判断语句来判断当前是否存在上述文件夹并按情况新建。目录如下
    根目录

  3. 运行爬取商品评论.py,等待爬虫结束就可以在上述新建的文件夹中comments的对应商品名称里找到当前商品的所有评论。运行后comments和cost中的txt文件如下:
    comments文件夹截图
    cost文件夹截图

  4. 在根目录下新建文件夹”词性分析“,新建一个停用词表”stopwords.txt“,其中内容按照自己的需要修改,按行间隔两个词,运行词性分析.py,得到的运行结果是所有词性词语的词云,以及一张整合了所有词性的词频图,如下图所示
    词性分析文件夹截图
    整合图

  5. 新建文件夹”好评分析“,运行情感分析.py,得到最后的情感分析结果,最后整个根目录结构如下根目录截图
    情感分析结果示例如下(以某品牌啤酒为例)请添加图片描述

三.代码

GitHub某东爬虫,求求各位给个⭐!!!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值