基于Python的直播平台数据分析可视化系统

欢迎大家点赞、收藏、关注、评论啦 ,由于篇幅有限,只展示了部分核心代码。

一项目简介

   随着移动互联网和5G的快速发展,视频直播行业呈现出丰富多元的内容形态,覆盖更多的场景和受众,视频成为了当前主流的信息传递媒介。本项目利用 python 网络爬虫抓取从某直播平台的直播数据,对不同直播频道数据进行统计分析,同时解析弹幕数据,通过文本清洗、关键词抽取,实现评论词云可视化,并基于 tfidf+情感词典算法实现评论的情感分析。

二、数据读取

  功能主要包括:

在这里插入图片描述

三、基于Python的直播平台数据分析可视化系统

3.1 登录注册

在这里插入图片描述

3.2 不同直播频道直播数据分析

分析不同直播频道的直播人数和观看热度在不同时间段的占比等信息进行统计分析:
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

3.3弹幕信息统计分析

通过对弹幕发送时间,每个视频发送弹幕数量等维度进行统计分析:

在这里插入图片描述

3.4 弹幕文本关键词抽取与词云分析

在这里插入图片描述

3.5 弹幕检索与情感分析

在这里插入图片描述

3.6 直播数据爬虫

利用 python 网络爬虫爬取某直播平台不同直播频道的直播数据(注:考虑版权问题,具体直播网站地址已脱敏),获取直播平台的所有直播频道:

# 首次爬取不存在类别列表文件,爬取
url = 'https://www.xxxx.com/directory/all'
headers = {
    'user-agent': "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36 Edg/79.0.309.56"
}
response = requests.get(url, headers=headers)
# 处理不同页面的编码问题
encode = chardet.detect(response.content)
if encode['encoding'] == 'GB2312':
    response.encoding = 'gbk'
else:
    response.encoding = 'utf8'
 
html = response.text
 
soup = BeautifulSoup(html, 'lxml')
category_divs = soup.select('div.Aside-menu-block')
 
cate_json = html[html.index('$DATA = {') + 8: html.index('var pageType = ')].strip()[:-1]
 
cate_infos = json.loads(cate_json)
cate_infos = cate_infos['leftNav']['cateList']
 
xxxx_category = {}
 
for cate_info, cate_div in zip(cate_infos, category_divs):
    first_cate = cate_div.find('a', class_='Aside-menu-title')
    first_cate_name = first_cate.text.strip()
    first_cate_url = 'https://www.xxxx.com' + first_cate['href']
 
    if cate_info['cn1'] != first_cate_name:
        raise ValueError
 
    xxxx_category[first_cate_name] = {'url': first_cate_url, 'second_category': [], 'id': cate_info['id']}
 
    second_cates = cate_div.select('a.Aside-menu-item')
 
    for second_cate_info, second_cate in zip(cate_info['list'], second_cates):
        second_cate_name = second_cate.text.strip()
        second_cate_url = 'https://www.xxxx.com' + second_cate['href']
 
        if second_cate_info['cn2'] != second_cate_name:
            raise ValueError
        xxxx_category[first_cate_name]['second_category'].append({'second_cate_name': second_cate_name,
                                                                    'second_cate_url': second_cate_url,
                                                                    'cid2': second_cate_info['cid2']})

对每个直播频道进行循环抓取详细的直播信息:

......
 
# 对每个大类别的数据进行循环爬取
insert_sql = 'INSERT INTO zhibo_info(spider_time, first_cate, second_cate, online_watchers) VALUES (?,?,?,?)'
for first_cate_name in xxxx_category:
    print('--> 爬取大类别:{}'.format(first_cate_name))
    first_cate = xxxx_category[first_cate_name]
 
    for second_cate in first_cate['second_category']:
        print('爬取:', second_cate['second_cate_name'])
        spider_time = datetime.now().strftime("%Y-%m-%d %H:%M:%S")
        online_watchers = {}   # 保存视频id 和 在线观看人数
        page_idx = 1
        while True:
            api_url = 'https://www.xxxx.com/gapi/rkc/directory/2_{}/{}'.format(second_cate['cid2'], page_idx)
            headers = {
                'user-agent': "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36 Edg/79.0.309.56"
            }
            response = requests.get(api_url, headers=headers)
            response.encoding = 'utf8'
            # 数据爬完了
            if 'invalid param' in response.text:
                break
            videos = response.json()['data']['rl']
            # 视频的在线人数
            for v in videos:
                if v['rid'] not in online_watchers:
                    online_watchers[v['rid']] = v['ol']
            page_idx += 1
            if page_idx > 8:  # 页面只显示 8 页的视频
                break
 
        ......

四. 总结

   本项目利用 python 网络爬虫抓取从某直播平台的直播数据,对不同直播频道数据进行统计分析,同时解析弹幕数据,通过文本清洗、关键词抽取,实现评论词云可视化,并基于 tfidf+情感词典算法实现评论的情感分析。
————————————————

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值