基于Python的小红书平台用户数据分析与可视化

本文介绍了一个基于Python的项目,用于分析小红书平台用户数据。通过搭建爬虫框架,利用URL管理器、下载器、解析器和输出管理器进行数据抓取,结合Scrapy和Nutch进行研究。项目采用Django框架,结合pandas、numpy、flask、bootstrap、echarts等工具进行数据挖掘和用户行为分析,旨在理解用户兴趣、偏好,并进行聚类分类。
摘要由CSDN通过智能技术生成

收藏关注不迷路


前言

据CNNIC在京发布第48次《中国互联网络发展状况统计报告》显示,截至2021年6月,我国网民规模达10.11亿,30-39岁网民占比最高,达到20.3%;其次依次是40-49岁、20-29岁占比较高。据新浪小红书平台数据中心发布的《2020小红书平台用户发展报告》中,小红书平台2020年9月月活跃用户为5.11亿,9月日活跃用户为2.24亿。其中代际用户互动时段高峰区为上班路上、午休、晚饭前、睡前,午时(12:00)和亥时(22:00)是黄金冲浪时段,90、00后等社会年轻主体互动量最高。小红书平台用户加速年轻化,90、00后占比近80%,媒体及政务官微90后粉丝过半。并且现今社会中,90、00后大多数都接受过高等教育。由此可见小红书平台对社会的影响力非常高,小红书平台平台拥有大量的用户,每天产生海量的信息,挖掘潜在的价值与知识,正确利用这个移动媒体对社会、政企、商务策划与营销、舆论监督、个人都有很大的益处。数据挖掘方法能够找到海量数据中有潜在价值的知识与模式,使用数据分析的方法、借助数据挖掘工具去探索小红书平台用户的习惯、兴趣、偏好。

一、项目介绍

首先研究目前市面上开源的主流爬虫框架Scrapy和Nutch的实现,熟悉掌握爬虫的框架。然后使用Python语言利用URL管理器、网页下载器、网页解析器、输出管理器这四个模块去搭建一个爬虫框架,将爬虫流程统一化,将通用的功能进行抽象,减少重复工作。要求实现的爬虫框架可以进行分布式爬取,解决爬虫的统一调度和统一去重,以及存储问题和速度问题。并提供多线程的下载,当CPU核数多的时候多线程下载可以更快的完成任务。最后使所要爬取的网站易于定制,因为很多站点的下载频率、浏览器要求是不同的,所以这里所实现的爬虫框架要提供相应扩展的配置。爬虫框架的实现步骤:
(1)先通过URL管理器进行管理,将待爬取的URL和已经爬取的URL分别记录下来。
(2)再根据URL将网页进行下载,主要是进行相应的伪装处理模拟浏览器访问、下载网页。
(3)随后通过网页解释器解析、获取你想要的、感兴趣的内容。
(4)最后使用输出管理器从经过筛选的下载中获取到对应的值,然后转化成你想要的文件形式来对你所需要的内容进行输出。
再将这个框架封装调用,对一个具体的网站进行测试。现成的开源第三方框架是为了尽可能满足大部分的需求,不可能做到面面俱到,以及第三方框架的调试相对复杂。为了提高效率可以专门封装一个框架,来快速方便得解决需求。

二、开发环境

开发语言:Python
python框架:django
软件版本:python3.7/python3.8
数据库:mysql 5.7或更高版本
数据库工具:Navicat11
开发软件:PyCharm/vs code
前端框架:vue.js

————————————————

三、功能介绍

本课题研究内容为基于网络爬虫分析的技术。运用python语言,利用协同过滤算法并可进行用户交互以实现算法的可操作性。采用,pandas,numpy数据分析,flask后端框架,前端采用bootstrap,echarts和JavaScript进行渲染和交互,sqlite关系数据库,轻量级mysql。其中登录注册,前端展示模块采用boostrap框架,数据统计分析模块采用mysql数据库,系统的功能模块的数据分析采用pandas,numpy技术。
挖掘活跃用户行为特征,分析用户的习惯、兴趣、偏好,然后对用户进行分类,通过活跃用户的特征属性为非活跃用户选择最相似的用户群体,然后进行分析。
使用基于划分的K中心算法和基于密度的DBSCAN 算法进行聚类分类,K中心算法通过分析各个类簇中心的相关性是否为不相关得到最终的分类结果,用基于密度的DBSCAN 算法的聚类结果进行对比,得到一个有已知标签的数据集(假设为数据集名为S)
对非活跃用户,用训练好的模型进行分类,然后提出一些建议。
数据集:分为活跃用户数据集和非活跃用户数据集
数据集属性类型

四、核心代码

部分代码:


def users_login(request):
    if request.method in ["POST", "GET"]:
        msg = {
   'code': normal_code, "msg": mes.normal_code}
        req_dict = request.session.get("req_dict")
        if req_dict.get('role')!=None:
            del req_dict['role']
        datas = users.
  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值