Python爬取微博(APP)榜单爬虫及数据可视化(1)

本文介绍了如何使用Python爬取微博24小时榜单数据,包括用户信息和微博内容,同时也分享了作者关于Python学习资源的整理,提供从零基础到进阶的系统学习资料。
摘要由CSDN通过智能技术生成

文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

作者: 罗罗攀

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取

python免费学习资料以及群交流解答点击即可加入


今天爬取的是微博榜单(24小时榜)的数据,采集的字段有:

  • 用户id

  • 用户地区

  • 用户性别

  • 用户粉丝

  • 微博内容

  • 发布时间

  • 转发、评论和点赞量

该文分以下内容:

  • 爬虫代码

  • 用户分析

  • 微博分析

在这里插入图片描述

在这里插入图片描述

爬虫代码

import requests

import json

import re

import time

import csv

headers = {

‘Host’: ‘api.weibo.cn’,

‘Connection’: ‘keep-alive’,

‘User-Agent’: ‘Weibo/29278 (iPhone; iOS 11.4.1; Scale/2.00)’

}

f = open(‘1.csv’,‘w+’,encoding=‘utf-8’,newline=‘’)

writer = csv.writer(f)

writer.writerow([‘user_id’,‘user_location’,‘user_gender’,‘user_follower’,‘text’,‘created_time’,‘reposts_count’,‘comments_count’,‘attitudes_count’])

def get_info(url):

res = requests.get(url,headers=headers)

print(url)

datas = re.findall(‘“mblog”😦.*?),“weibo_position”’,res.text,re.S)

for data in datas:

json_data = json.loads(data+‘}’)

user_id = json_data[‘user’][‘name’]

user_location = json_data[‘user’][‘location’]

user_gender = json_data[‘user’][‘gender’]

user_follower = json_data[‘user’][‘followers_count’]

text = json_data[‘text’]

created_time = json_data[‘created_at’]

reposts_count = json_data[‘reposts_count’]

comments_count = json_data[‘comments_count’]

attitudes_count = json_data[‘attitudes_count’]

print(user_id,user_location,user_gender,user_follower,text,created_time,reposts_count,comments_count,attitudes_count)

writer.writerow([user_id,user_location,user_gender,user_follower,text,created_time,reposts_count,comments_count,attitudes_count])
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

img

img

img

img

img

img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注Python)

学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!**

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注Python)

img
爬取微博评论数据并使数据可视化可以按照以下步骤进行: 1. 确定要爬取微博,获取微博的URL。 2. 使用Python的requests库和正则表达式或BeautifulSoup库获取微博页面的HTML源代码。 3. 从HTML源代码中抓取评论数据,可以使用正则表达式或BeautifulSoup库。 4. 将评论数据存储到本地文件或数据库中,可以使用Python的pickle库、csv库或sqlite3库。 5. 使用Python数据可视化库(如matplotlib、seaborn或Plotly)将数据可视化。 下面是一个简单的Python程序,可以爬取微博评论并将数据存储到本地csv文件中: ```python import requests from bs4 import BeautifulSoup import csv # 微博URL url = 'https://weibo.com/xxx/yyy' # 发送请求获取HTML源代码 response = requests.get(url) html = response.text # 使用BeautifulSoup解析HTML源代码 soup = BeautifulSoup(html, 'html.parser') # 获取评论列表 comment_list = soup.find_all('div', class_='comment') # 将评论数据存储到csv文件中 with open('comments.csv', 'w', encoding='utf-8', newline='') as f: writer = csv.writer(f) writer.writerow(['评论时间', '评论人', '评论内容']) for comment in comment_list: time = comment.find('span', class_='time').text user = comment.find('a', class_='name').text content = comment.find('div', class_='txt').text.strip() writer.writerow([time, user, content]) ``` 接下来,可以使用Python数据可视化库,如matplotlib,将评论数据可视化: ```python import matplotlib.pyplot as plt import pandas as pd # 读取csv文件并转换为DataFrame对象 df = pd.read_csv('comments.csv', encoding='utf-8') # 统计评论人出现次数 user_count = df['评论人'].value_counts() # 绘制柱状图 plt.bar(user_count.index, user_count.values) plt.xticks(rotation=90) plt.xlabel('评论人') plt.ylabel('评论数') plt.show() ``` 这段代码将评论人出现的次数绘制成柱状图,并展示在屏幕上。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值