Python教你爬取某站视频弹幕,并绘制词云图(内含完整源码)

19 篇文章 4 订阅

前言

嗨喽,大家好(o゚v゚)ノ 这里是魔王
请添加图片描述

[课 题]:

Python爬取某站视频弹幕或者腾讯视频弹幕,绘制词云图

[知识点]:

1. 爬虫基本流程
2. 正则
3. requests >>> pip install requests
4. jieba >>> pip install jieba
5. imageio >>> pip install imageio
6. wordcloud  >>> pip install wordcloud

[开发环境]:

Python 3.8
Pycharm

win + R 输入cmd 输入安装命令 pip install 模块名 如果出现爆红 可能是因为 网络连接超时 切换国内镜像源

相对应的安装包/安装教程/激活码/使用教程/学习资料/工具插件 可以找我

爬取弹幕

爬虫基本思路流程:

一. 数据来源分析

1. 确定我们想要数据是什么?
    爬取某站弹幕数据 保存文本txt
2. 通过开发者工具进行抓包分析...
    通过 接口可以直接找到视频的弹幕数据地址

二. 爬虫代码实现步骤:

1. 发送请求,  对于(评论看) 发送请求
    需要注意点:
        - 请求方式确定
        - 请求头参数
2. 获取数据, 获取服务器返回的数据
3. 解析数据, 提取我们想要数据内容, 弹幕数据
4. 保存数据, 把获取下来的数据内容保存txt文本

模拟浏览器对于服务器发送请求

“”"

导入模块

import requests  # 数据请求模块 第三方模块 pip install requests
import re  # 正则表达式模块 内置模块 不需要安装

请添加图片描述

代码

# # 1. 发送请求
# url = '(评论看)'
# # headers 请求头 作用把Python代码进行伪装, 模拟成浏览器去发送请求
# # user-agent 浏览器基本身份标识
# # headers 请求头 字典数据类型
# headers = {
#     'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36'
# }
# # 通过requests模块里面get请求方法, 对于url地址发送请求, 并且携带上headers请求头, 最后用response变量去接收返回数据
# response = requests.get(url=url, headers=headers)
# response.encoding = response.apparent_encoding
# # <Response [200]> response对象 200状态码 表示请求成功
# # 如果你想要获取 网页源代码一样的数据内容的话, 是获取响应体的文本数据
# # 如果服务器返回的数据, 不是完整json数据 字典数据 直接获取response.json()就会报错
# # 2. 获取数据 response.text 返回数据 html字符串数据
# # print(response.text)
# # 3. 解析数据, 解析方式  re[可以直接对于字符串数据进行提取] css xpath [主要根据标签属性/节点提取数据]
# # () 精确匹配 表示想要的数据 泛匹配 .*? 正则表达式元字符 可以匹配任意字符(除了换行符\n以外)
# data_list = re.findall('<d p=".*?">(.*?)</d>', response.text)
# for index in data_list:
#     # mode 保存方式 encoding 编码
#     # pprint.pprint() 格式化输入 json字典数据
#     with open('弹幕.txt', mode='a', encoding='utf-8') as f:
#         f.write(index)
#         f.write('\n')
#         print(index)
url = 'https://mapi.vip.com/vips-mobile/rest/shopping/pc/search/product/rank?callback=getMerchandiseIds&app_name=shop_pc&app_version=4.0&warehouse=VIP_NH&fdc_area_id=104104101&client=pc&mobile_platform=1&province_id=104104&api_key=70f71280d5d547b2a7bb370a529aeea1&user_id=&mars_cid=1634797375792_17a23bdc351b36f2915c2f7ec16dc88e&wap_consumer=a&standby_id=nature&keyword=%E5%8F%A3%E7%BA%A2&lv3CatIds=&lv2CatIds=&lv1CatIds=&brandStoreSns=&props=&priceMin=&priceMax=&vipService=&sort=0&pageOffset=0&channelId=1&gPlatform=PC&batchSize=120&_=1639640088314'

headers = {
    'referer': 'https://category.vip.com/',
    'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36'
}
response = requests.get(url=url, headers=headers)
print(response.text)

在这里插入图片描述

制作词云图

请添加图片描述

[知识点]:

1. 爬虫基本流程
2. 正则
3. requests >>> pip install requests
4. jieba >>> pip install jieba
5. imageio >>> pip install imageio
6. wordcloud  >>> pip install wordcloud

[开发环境]:

Python 3.8
Pycharm

导入模块

import jieba  # 结巴分词 pip install jieba
import wordcloud  # 词云图 pip install wordcloud
import imageio  # 读取本地图片 修改词云图形
img = imageio.imread('苹果.png')

1. 读取弹幕数据

f = open('弹幕.txt', encoding='utf-8')
text = f.read()
# print(text)

请添加图片描述

2. 分词, 把一句话 分割成很多词汇

text_list = jieba.lcut(text)
print(text_list)
# 列表转成字符串
text_str = ' '.join(text_list)
print(text_str)

3. 词云图配置

wc = wordcloud.WordCloud(
    width=500,  # 宽度
    height=500,  # 高度
    background_color='white', # 背景颜色
    mask=img,
    stopwords={'每', '一个', '了', '的', '梦想', '助力'},
    font_path='msyh.ttc'  # 字体文件
)

wc.generate(text_str)
wc.to_file('词云1.png')

在这里插入图片描述在这里插入图片描述

好了,我的这篇文章写到这里就结束啦!

有更多建议或问题可以评论区或私信我哦!一起加油努力叭(ง •_•)ง

喜欢就关注一下博主,或点赞收藏评论一下我的文章叭!!!

  • 11
    点赞
  • 51
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
由于QQ音乐的反虫机制比较强,需要先模拟登录QQ音乐获cookies,然后再进行评论和生成的操作。 以下是完整代码: ```python import requests import json import time import os from wordcloud import WordCloud import matplotlib.pyplot as plt from PIL import Image import numpy as np # 登录QQ音乐获cookies def get_cookies(): headers = { 'Referer': 'https://y.qq.com/', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } url = 'https://y.qq.com/' response = requests.get(url, headers=headers) cookies = response.cookies.get_dict() return cookies # 评论 def get_comments(song_id, page): headers = { 'Referer': 'https://y.qq.com/n/yqq/song/{}.html'.format(song_id), 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3', 'Cookie': 'pgv_pvid=6021975380; pgv_pvi=3306170880; pt2gguin=o0533414728; RK=J0VJyXs+Ld; ptcz=4e11a4a6e4a6b8d37b42a6b9f9d2b6c8a6b2a6b9f9d2b6c8a6b2a6b9f9d2b6c8; pgv_si=s1046426624; pgv_info=ssid=s7230811040; _qpsvr_localtk=0.7601771490547045; yq_index=0; yq_playschange=0; yq_playdata=; ts_uid=4789989478; player_exist=1; qqmusic_fromtag=66' } url = 'https://c.y.qq.com/base/fcgi-bin/fcg_global_comment_h5.fcg' params = { 'g_tk': '5381', 'loginUin': '0', 'hostUin': '0', 'format': 'json', 'inCharset': 'utf8', 'outCharset': 'utf-8', 'notice': '0', 'platform': 'yqq.json', 'needNewCode': '0', 'cid': '205360772', 'reqtype': '2', 'biztype': '1', 'topid': song_id, 'cmd': '8', 'pagenum': page, 'pagesize': '25', 'lasthotcommentid': '', 'domain': 'qq.com', 'ct': '24', 'cv': '10101010' } response = requests.get(url, headers=headers, params=params) json_data = json.loads(response.text) comment_list = json_data['comment']['commentlist'] comments = [] for comment in comment_list: content = comment['rootcommentcontent'] comments.append(content) return comments # 生成 def generate_wordcloud(text, mask_path): # 读遮罩片 mask = np.array(Image.open(mask_path)) # 设置参数 wc = WordCloud(background_color="white", max_words=2000, mask=mask, contour_width=1, contour_color='steelblue') # 生成 wc.generate(text) # 显示 plt.imshow(wc, interpolation='bilinear') plt.axis("off") plt.show() if __name__ == '__main__': # 歌曲id song_id = '108119' # 存储评论的文件名 filename = 'comments.txt' # 遮罩片路径 mask_path = 'jay.jpg' # 获cookies cookies = get_cookies() # 评论 comments = [] for i in range(1, 11): comments += get_comments(song_id, i) time.sleep(1) # 保存评论到文件中 with open(filename, 'w', encoding='utf-8') as f: for comment in comments: f.write(comment + '\n') # 读评论文件 with open(filename, 'r', encoding='utf-8') as f: text = f.read() # 生成 generate_wordcloud(text, mask_path) ``` 需要注意的几点: 1. `get_cookies()`函数中的`Cookie`参数需要根据自己的账号进行修改,可以通过浏览器获; 2. `get_comments()`函数中的`cid`参数是QQ音乐评论的分类id,每个歌曲的分类id不同,需要通过浏览器获; 3. `generate_wordcloud()`函数中的`mask_path`参数是用于遮罩的片路径,需要提前准备好; 4. 由于QQ音乐的反虫机制比较强,为了避免被封IP,需要在评论时加入适当的延时。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值