爬虫获取网易云评论并写入csv文件

这里我们使用selenium模块,所以要下载自己Chrome对应版本的Chromedriver,关于Chromedriver的下载,这里上一篇别人的文章,也可以去百度如何下载配置。

如何快速下载、安装、配置chromedriver_snowrong的专栏-CSDN博客_如何下载chromedrivericon-default.png?t=L9C2https://blog.csdn.net/snowrong/article/details/100096310然后上代码:

这里我们爬取的是许嵩的雅俗共赏,想要爬取其它的评论则可以通过修改url,具体的url则可以去网易云网页端的网址获取,比如这是林俊杰的江南的网址:用网址去替换url。

 随后我们上代码:

# -*- codeing = utf-8 -*-
# @Time : 2021/10/24 15:30
# @Author : 彭翔
# @File : 02.py
# @Software: PyCharm

from selenium import webdriver
import pandas as pd

driver = webdriver.Chrome()
url = 'https://music.163.com/#/song?id=411214279'  # 歌曲页面的URL地址
driver.get(url)
driver.implicitly_wait(1)  # 显式等待1秒
driver.switch_to.frame('contentFrame')  # 切入contentFrame

comments_list = []

for i in range(100):  # 爬取评论的页数
    next_button = driver.find_element_by_xpath('//*[@class="m-cmmt"]/div[3]/div/a[11]')  # 找到下一页的按钮
    comments = driver.find_elements_by_xpath('//*[@class="m-cmmt"]/div[2]/div/div[2]/div[1]/div')  # 找到评论
    for item in comments:
        index = item.text.index(':') + 1
        comment = item.text[index:]  # 解析评论
        print(comment)
        comments_list.append(comment)
    driver.execute_script("arguments[0].click();", next_button)  # 触发next_button的JS进入下一页评论
# 转换为dataframe,方便写入csv
df = pd.DataFrame(columns=['comment'], data=comments_list)
df.to_csv('comment.csv')

这里是获取到的评论。我用csv来储存的:

  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值