python爬取数据生成词云_利用Python动态爬取QQ说说并生成词云,分析朋友状况!...

今天我们要做的事情是使用动态爬虫来爬取QQ空间的说说,并把这些内容存在txt中,然后读取出来生成云图,这样可以清晰的看出朋友的状况。

这是好友的QQ空间10年说说内容,基本有一个大致的印象了。

爬取动态内容

因为动态页面的内容是动态加载出来的,所以我们需要不断下滑,加载页面

切换到当前内容的frame中,也有可能不是frame,这里需要查看具体情况

获取页面源数据,然后放入xpath中,然后读取

# 下拉滚动条,使浏览器加载出动态加载的内容,

# 我这里是从1开始到6结束 分5 次加载完每页数据

for i in range(1,6):

height = 20000*i#每次滑动20000像素

strWord = "window.scrollBy(0,"+str(height)+")"

driver.execute_script(strWord)

time.sleep(4)

# 很多时候网页由多个或组成,webdriver默认定位的是最外层的frame,

# 所以这里需要选中一下说说所在的frame,否则找不到下面需要的网页元素

driver.switch_to.frame("app_canvas_frame")

selector = etree.HTML(driver.page_source)

divs = selector.xpath('//*[@id="msgList"]/li/div[3]')

所有的注释都在代码中,所以也就不作详情说明,

昨天的模拟登录大家都应该掌握了,没有掌握的自己再去复习一下

.Python爬虫:学习Selenium并使用Selenium模拟登录知乎

爬取说说的完整代码

#coding:utf-8

import time

from selenium import webdriver

from lxml import etree

#这里一定要设置编码格式,防止后面写入文件时报错

import sys

reload(sys)

sys.setdefaultencoding( "utf-8" )

friend = 'XXX' # 朋友的QQ号,朋友的空间要求允许你能访问

user = 'XXX' # 你的QQ号

pw = 'XXXX' # 你的QQ密码

#获取浏览器驱动

driver = webdriver.Firefox()

# 浏览器窗口最大化

driver.maximize_window()

# 浏览器地址定向为qq登陆页面

driver.get("http://i.qq.com")

# 所以这里需要选中一下frame,否则找不到下面需要的网页元素

driver.switch_to.frame("login_frame")

# 自动点击账号登陆方式

driver.find_element_by_id("switcher_plogin").click()

# 账号输入框输入已知qq账号

driver.find_element_by_id("u").send_keys(user)

# 密码框输入已知密码

driver.find_element_by_id("p").send_keys(pw)

# 自动点击登陆按钮

driver.find_element_by_id("login_button").click()

# 让webdriver操纵当前页

driver.switch_to.default_content()

# 跳到说说的url, friend你可以任意改成你想访问的空间

driver.get("http://user.qzone.qq.com/" + friend + "/311")

next_num = 0 # 初始“下一页”的id

while True:

# 下拉滚动条,使浏览器加载出动态加载的内容,

# 我这里是从1开始到6结束 分5 次加载完每页数据

for i in range(1,6):

height = 20000*i#每次滑动20000像素

strWord = "window.scrollBy(0,"+str(height)+")"

driver.execute_script(strWord)

time.sleep(4)

# 很多时候网页由多个或组成,webdriver默认定位的是最外层的frame,

# 所以这里需要选中一下说说所在的frame,否则找不到下面需要的网页元素

driver.switch_to.frame("app_canvas_frame")

selector = etree.HTML(driver.page_source)

divs = selector.xpath('//*[@id="msgList"]/li/div[3]')

#这里使用 a 表示内容可以连续不清空写入

with open('qq_word.txt','a') as f:

for div in divs:

qq_name = div.xpath('./div[2]/a/text()')

qq_content = div.xpath('./div[2]/pre/text()')

qq_time = div.xpath('./div[4]/div[1]/span/a/text()')

qq_name = qq_name[0] if len(qq_name)>0 else ''

qq_content = qq_content[0] if len(qq_content)>0 else ''

qq_time = qq_time[0] if len(qq_time)>0 else ''

print qq_name,qq_time,qq_content

f.write(qq_content+"\n")

# 当已经到了尾页,“下一页”这个按钮就没有id了,可以结束了

if driver.page_source.find('pager_next_' + str(next_num)) == -1:

break

# 找到“下一页”的按钮,因为下一页的按钮是动态变化的,这里需要动态记录一下

driver.find_element_by_id('pager_next_' + str(next_num)).click()

# “下一页”的id

next_num += 1

# 因为在下一个循环里首先还要把页面下拉,所以要跳到外层的frame上

driver.switch_to.parent_frame()

这样所有的说说内容就可以爬取到了。并且存到了同级目录中

生成词云

生成词云需要用到的库:wordcloud, 生成词云matplotlib, 生成词云图片jieba ,这个库可用可不用,但我因为中文一直显示不出来,后来加上了这个库,就能显示中文了。

#coding:utf-8

"""

使用结巴分词生成云图

说明这里

1.生成词云一定要设置字体样式,否则汉字出现乱码或者不显示

2.我不知道为什么本机一直显示不了中文,后面我加了jieba分词词库就可以显示中文了

"""

from wordcloud import WordCloud

import matplotlib.pyplot as plt

import jieba

#生成词云

def create_word_cloud(filename):

text= open("{}.txt".format(filename)).read()

# 结巴分词

wordlist = jieba.cut(text, cut_all=True)

wl = " ".join(wordlist)

# 设置词云

wc = WordCloud(

# 设置背景颜色

background_color="white",

# 设置最大显示的词云数

max_words=2000,

# 这种字体都在电脑字体中,一般路径

font_path='C:\Windows\Fonts\simfang.ttf',

height= 1200,

width= 1600,

# 设置字体最大值

max_font_size=100,

# 设置有多少种随机生成状态,即有多少种配色方案

random_state=30,

)

myword = wc.generate(wl) # 生成词云

# 展示词云图

plt.imshow(myword)

plt.axis("off")

plt.show()

wc.to_file('py_book.png') # 把词云保存下

if __name__ == '__main__':

create_word_cloud('word_py')

由于QQ音乐的反爬虫机制比较强,需要先模拟登录QQ音乐获取cookies,然后再进行爬取评论和生成词云图的操作。 以下是完整代码: ```python import requests import json import time import os from wordcloud import WordCloud import matplotlib.pyplot as plt from PIL import Image import numpy as np # 登录QQ音乐获取cookies def get_cookies(): headers = { 'Referer': 'https://y.qq.com/', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } url = 'https://y.qq.com/' response = requests.get(url, headers=headers) cookies = response.cookies.get_dict() return cookies # 爬取评论 def get_comments(song_id, page): headers = { 'Referer': 'https://y.qq.com/n/yqq/song/{}.html'.format(song_id), 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3', 'Cookie': 'pgv_pvid=6021975380; pgv_pvi=3306170880; pt2gguin=o0533414728; RK=J0VJyXs+Ld; ptcz=4e11a4a6e4a6b8d37b42a6b9f9d2b6c8a6b2a6b9f9d2b6c8a6b2a6b9f9d2b6c8; pgv_si=s1046426624; pgv_info=ssid=s7230811040; _qpsvr_localtk=0.7601771490547045; yq_index=0; yq_playschange=0; yq_playdata=; ts_uid=4789989478; player_exist=1; qqmusic_fromtag=66' } url = 'https://c.y.qq.com/base/fcgi-bin/fcg_global_comment_h5.fcg' params = { 'g_tk': '5381', 'loginUin': '0', 'hostUin': '0', 'format': 'json', 'inCharset': 'utf8', 'outCharset': 'utf-8', 'notice': '0', 'platform': 'yqq.json', 'needNewCode': '0', 'cid': '205360772', 'reqtype': '2', 'biztype': '1', 'topid': song_id, 'cmd': '8', 'pagenum': page, 'pagesize': '25', 'lasthotcommentid': '', 'domain': 'qq.com', 'ct': '24', 'cv': '10101010' } response = requests.get(url, headers=headers, params=params) json_data = json.loads(response.text) comment_list = json_data['comment']['commentlist'] comments = [] for comment in comment_list: content = comment['rootcommentcontent'] comments.append(content) return comments # 生成词云图 def generate_wordcloud(text, mask_path): # 读取遮罩图片 mask = np.array(Image.open(mask_path)) # 设置词云图参数 wc = WordCloud(background_color="white", max_words=2000, mask=mask, contour_width=1, contour_color='steelblue') # 生成词云图 wc.generate(text) # 显示词云图 plt.imshow(wc, interpolation='bilinear') plt.axis("off") plt.show() if __name__ == '__main__': # 歌曲id song_id = '108119' # 存储评论的文件名 filename = 'comments.txt' # 遮罩图片路径 mask_path = 'jay.jpg' # 获取cookies cookies = get_cookies() # 爬取评论 comments = [] for i in range(1, 11): comments += get_comments(song_id, i) time.sleep(1) # 保存评论到文件中 with open(filename, 'w', encoding='utf-8') as f: for comment in comments: f.write(comment + '\n') # 读取评论文件 with open(filename, 'r', encoding='utf-8') as f: text = f.read() # 生成词云图 generate_wordcloud(text, mask_path) ``` 需要注意的几点: 1. `get_cookies()`函数中的`Cookie`参数需要根据自己的账号进行修改,可以通过浏览器获取; 2. `get_comments()`函数中的`cid`参数是QQ音乐评论的分类id,每个歌曲的分类id不同,需要通过浏览器获取; 3. `generate_wordcloud()`函数中的`mask_path`参数是用于遮罩的图片路径,需要提前准备好; 4. 由于QQ音乐的反爬虫机制比较强,为了避免被封IP,需要在爬取评论时加入适当的延时。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值