微博评论爬虫+可视化

通常我们在复制url的时,url的最后一位为用户id,取出用户id,替换url;

例如

url: https://m.weibo.cn/status/4661133254069552?

我们要爬取此网页,要找到其数据的json文件,可以直接F12,network,CTRL+F搜索comment(如果没有网络文件,就刷新一下),得到对应comment json的URL,把URL中的id进行替换。如图

 然后对url得到的json文件读取就可以得到评论数据。

先暂缓------------------

为了爬取微博评论数据,我们可以使用Python中的一个非常流行的网络爬虫框架——Scrapy。此外,我们还需要使用Selenium模拟用户登陆微博,并通过Selenium的WebDriver来控制浏览器进行数据爬取操作。以下是一个简单的示例代码,供参考: ``` import scrapy from scrapy import Request import time import re from selenium import webdriver class WeiboSpider(scrapy.Spider): name = 'weibo_comment' allowed_domains = ['weibo.com'] def __init__(self): self.chrome_options = webdriver.ChromeOptions() self.chrome_options.add_argument('--headless') self.chrome_options.add_argument('--disable-gpu') self.browser = webdriver.Chrome(chrome_options=self.chrome_options) def start_requests(self): # 模拟登陆 self.browser.get('https://passport.weibo.com/visitor/visitor?entry=miniblog&a=enter&url=https://weibo.com/') time.sleep(10) self.browser.execute_script('document.getElementById("loginname").value="your_username";document.getElementById("password").value="your_password";') self.browser.find_element_by_xpath('//div[@class="info_list login_btn"]/a[@class="W_btn_a btn_32px"]') time.sleep(3) # 获取评论数据 comment_url = 'https://weibo.com/ajax/statuses/repostTimeline?is_comment_base=1&id={}&page={}' for i in range(1, 101): url = comment_url.format('your_weibo_id', i) yield Request(url=url, callback=self.parse) def parse(self, response): # 处理评论数据 html = response.text pids = re.findall('"id":"(\d+)"', html) cids = re.findall('"cid":"(\d+)"', html) comments = re.findall('"text":"(.*?)".*?"created_at":"(.*?)".*?"user":{.*?:"(.*?)".*?}', html, re.S) for i in range(len(pids)): pid = pids[i] cid = cids[i] comment = comments[i] text = comment[0] created_at = comment[1] author = comment[2] # 对评论数据进行处理,如保存到数据库等操作 ... def closed(self, spider): self.browser.close() ``` 关于数据可视化分析,我们可以使用Python的数据科学库——Pandas和可视化库——Matplotlib,以下是一个简单的示例代码: ``` import pandas as pd import matplotlib.pyplot as plt # 读取数据 df = pd.read_csv('comment.csv', encoding='utf-8') # 计算评论数量 comment_count = df.groupby('author').size().reset_index(name='comment_count') # 绘制柱状图 plt.bar(comment_count['author'], comment_count['comment_count']) plt.xticks(rotation=90) plt.show() # 统计评论时间分布 df['created_at'] = pd.to_datetime(df['created_at'], format='%a %b %d %H:%M:%S +0800 %Y') df['hour'] = df['created_at'].apply(lambda x: x.hour) comment_hour_count = df.groupby('hour').size().reset_index(name='comment_count') # 绘制折线图 plt.plot(comment_hour_count['hour'], comment_hour_count['comment_count']) plt.xticks(range(24)) plt.show() ``` 此处我们假设已经将爬取到的数据保存到了一个comment.csv文件中。可视化分析部分,我们使用Pandas的groupby方法对数据进行统计,然后使用Matplotlib进行可视化绘制。如上代码片段中的示例,我们分别绘制了柱状图和折线图,用以展现评论数量的分布情况。具体的图表效果还需要根据实际数据和需求进行调整和优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值