python爬取微博评论点赞数_python 爬虫 爬微博 分析 数据

python 爬虫 爬微博分析 数据

最近刚看完爱情公寓5,里面的大力也太好看了吧。。。

打开成果的微博,小作文一样的微博看着也太爽了吧。。。

来 用python分析分析 狗哥这几年微博的干了些啥。

需要的工具有:

​ scrapy + pyecharts + pymysql

这些库的使用我就不说自己百度学吧。

第一步:当然是进入狗哥的微博分析了

这里我推选 微博 手机版的网站,因为手机版的网站比较简单 , 没那么花里胡哨 提取信息方便一点

点击上述图片的位置

然后刷新下网站,加载json数据

通过分析这个就是加载微博数据的json文件 ,打开看一下

里的data->cards->mblog,就是存放微博文章的各种信息,比如文章 点赞数,评论数等等。

把这个json文件翻到最下面

看到最下面的是1月29号发的微博,也就是说一个json文件存了3月15号到1月29号的微博

那么怎么获取 1月29号前面的呢?

这里仔细分析还是有规律的

我们在狗哥的主页上向下翻,翻到最后面会自己滚动加载新的json文件

新加载的json文件

打开后把前一个连接与这个比较一些

仔细发现 前面都一样,唯一不同的是后面

第二个加载的多了一盒since_id

然后我们打开第一和json文件

这里有个since_id

这时我们就可以大胆推测一下了

第一次加载的json文件里面有个 since_id

而这个 since_id 也就是下一个 要加载的json文件

然后下一个的 json文件里的since_id 也就是下一个的下一个的json文件

………………………………

这样就可把所有的json文件找出来了

你也可以自己找几个验证一下

有了这些数据那就开始爬虫了

第二部:爬取数据

我们可以设置 :start_urls 为第一个出现的json文件连接

​ since_id # 下下面的id ​ created_at # 创建的日期 ​ text # 发布的内容 ​ source # 发布文章的设备 ​ scheme # 原文连接 ​ reposts_count # 转发数量 ​ textLength # 文章字数 ​ comments_count # 评论个数 ​ attitudes_count # 点赞个数

这些是 json里面的数据,可以直接通过字典来获取

然后我也直接贴代码了

import json

import scrapy

from weibo.items import WeiboItem

from bs4 import BeautifulSoup

class weibo_spider(scrapy.Spider):

name = "weibo"

start_urls =["https://m.weibo.cn/api/container/getIndex?uid=1927305954&t=0&luicode=10000011&lfid=100103type%3D1%26q%3D%E6%88%90%E6%9E%9C&type=uid&value=1927305954&containerid=1076031927305954"]

url = "https://m.weibo.cn/api/container/getIndex?uid=1927305954&t=0&luicode=10000011&lfid=100103type%3D1%26q%3D%E6%88%90%E6%9E%9C&type=uid&value=1927305954&containerid=1076031927305954&since_id="

#start_urls = ["https://m.weibo.cn/"]

allowed_domains = ["weibo.com", "weibo.cn"]

since_id = "" # 下下面的id

created_at = "" # 创建

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 取微博数据是指通过爬取微博网站上的内容,获取用户在微博上发布的各种信息,包括文字、图片、视频等。爬取微博数据的方式可以使用Python编程语言中的爬虫技术来实现。 Python爬虫是一种自动获取网页内容的技术,通过模拟浏览器行为,可以获取网页上的数据。对于微博数据爬取,可以通过Python爬取微博官方API接口或者直接爬取微博网页上的内容。 爬取微博数据需要首先进行身份认证和授权,获取访问权限。然后,可以通过API接口或者请求微博网页,获取微博网站上的数据。可以将数据保存在数据库中,或者直接进行分析和处理。 爬取到的微博数据可以用于各种目的,如数据开发、微博分析等。数据开发是指对爬取到的数据进行清洗、整理和存储,以便后续的数据分析和应用。微博分析则是对微博数据进行统计和分析,了解用户的行为和趋势,找出有价值的信息。 对于爬取微博数据,可以通过可视化的方式呈现,以更直观地展示数据的分布和变化趋势。可视化可以使用各种Python数据可视化库,如matplotlib、seaborn等,制作各种图表、图像和地图等,提供更好的数据展示效果。 总结来说,通过Python编程语言中的爬虫技术,可以取得微博数据并进行数据开发、微博分析和可视化处理,从中获取有价值的信息。 ### 回答2: 取微博数据是指使用爬虫技术从微博平台上抓取用户的相关信息,通过获取微博的内容、点赞数、转发数、评论数等数据,并进行可视化分析以及数据开发,以了解用户行为和趋势。 在这个过程中,可以使用Python编写爬虫程序来自动化地访问微博网站并获取所需数据爬虫程序可以模拟用户登录微博,搜索关键词或用户,获取相关微博内容,并提取所需的数据信息。 通过爬取微博数据,可以进行数据开发,包括数据清洗、处理以及存储。数据清洗是指对原始数据进行去除噪声、格式转换、去重等操作,以保证数据的准确性和一致性。数据处理是指对清洗后的数据进行加工处理,如对文字进行分词、提取关键词等。数据存储则是将处理后的数据以合适的格式保存在数据库或文件中,以备后续使用。 除了数据开发,还可以进行微博数据的可视化分析。通过使用数据可视化工具和库,将微博数据转化为图表、地图、词云等可视化形式,从而更直观地展示数据的分布和趋势。通过分析微博数据可视化结果,可以发现用户关注的热点话题、用户行为模式等信息,为企业和个人提供决策参考。 总之,通过取微博数据并进行可视化分析以及数据开发,我们可以深入了解用户行为和趋势,为企业和个人提供更有针对性的决策和推广策略。同时,这也为数据分析领域的研究和应用提供了丰富的资源和实践案例。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值