爬取豆瓣《将夜》短评并绘制词云

《将夜》是根据猫腻小说改编,陈飞宇和宋伊人主演,最近在腾讯视频热播的电视剧,闲来无事,在学Python爬虫的时候想要爬取评论看看。几经努力,菜鸟水平终于能够爬取短评了。由于豆瓣的限制,即使在登录的状态,依然只能爬取500条评论,具体代码如下:

# 调用相关包
import json
import random
import requests
import time
import pandas as pd
from pyquery import PyQuery as pq
import pymongo
from bs4 import BeautifulSoup as bs
import re
import os
from pyecharts import Bar, Geo, Line, Overlap
import jieba
from scipy.misc import imread
from wordcloud import WordCloud, ImageColorGenerator
import matplotlib.pyplot as plt
from collections import Counter

# 存储到数据库
MONGO_URL = 'localhost'
MONGO_DB = 'douban'
MONGO_COLLECTION = 'jiangye_comments'
client = pymongo.MongoClient(MONGO_URL)
db = client[MONGO_DB]

def save_to_mongo(result):
    try:
        if db[MONGO_COLLECTION].insert(result):
            print('存储到MongoDB成功')
    except Exception:
        print('存储到MongoDB失败')

session = requests.Session()

def loginin():
    url = 'https://www.douban.com/accounts/login'
    name = '你的用户名'
    psw = '你的密码'
    headers = {
        "User-Agent": "'Mozilla/5.0 (Windows NT 6.1; rv:53.0)Gecko/20100101 Firefox/53.0'",
        "Accept-Language": "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3",
        "Accept-Encoding": "gzip,deflate",
        "Connection":"keep-alive"
    }
    data = {
        'form_email': name,
        'form_password': psw,
        'source': 'index_nav',
        'remember': 'on'
    }
    captcha = session.get(url, headers=headers, timeout=30)
    soup = bs(captcha.content, 'lxml')
    img = soup.find_all('img', id='captcha_image')
    print(img)
    if img:
        captcha_url = re.findall('src="(.*?)"', str(img))[0]
        print("验证码所在标签为:", captcha_url)
        a = captcha_url.split('&')[0]
        capid = a.split('=')[1]
        print(capid)
        cap = session.get(captcha_url, headers=headers).content
        with open('captcha.jpg', 'wb') as f:
            f.write(cap)
            f.close()
        im = Image.open('captcha.jpg')
        im.show()
        capimg = input('请输入验证码:')
        newdata = {
            'captcha-solution': capimg,
            'captcha-id': capid
        }
        data.update(newdata)
        print(data)
        os.remove('captcha.jpg')
    else:
        print('不存在验证码,请直接登录')
    
    r = session.post(url, data=data, headers=headers, timeout=30)
    print(r.status_code)

if __name__ == '__main__':
    loginin()
	# 爬取数据
	for i in range(0, 25):
	    i1 = i * 20
	    try:
	        time.sleep(2)
	        url = "https://movie.douban.com/subject/26848645/comments?start=" + str(i1) + \
	              "&limit=20&sort=new_score&status=P"
	        print("crawing:%s" % url)
	        # html = requests.get(url=url, cookies=cookie, headers=headers).content
	        html = session.get(url).content
	        doc = pq(html)
	        items = doc('#comments .comment-item').items()
	        for item in items:
	            jiangye_comments = {
	                'author': item.find('.avatar a').attr('title'),
	                'votes': item.find('.votes').text(),
	                'rating': item.find('.rating').text(),
	                'date': item.find('.comment-time').text(),
	                'comments': item.find('.short').text()
	            }
	            save_to_mongo(jiangye_comments)
	    except:
	        continue

由于豆瓣有反爬机制,爬取次数较多的话会限制登录,所以采用登录的方式,获取Session,然后调用Session打开待爬取网页。登录过程中,由于登录次数过多会要求验证码,需要判断验证码是否存在,如果存在,会在本地保存验证码,要求在shell输入,即可正确登录。
由于豆瓣只能读取500条评论,读取的结果如下:
在这里插入图片描述## 绘制词云
在数据库中提取短评信息,分词并设置截止词,绘制词云所用的原图为:
陈飞宇
绘制词云的代码如下:

# 调用相关包
import json
import random
import requests
import time
import re
import pandas as pd
import numpy as np
from PIL import Image
from pyquery import PyQuery as pq
import pymongo
import os
from os import path
from pyecharts import Bar, Geo, Line, Overlap
import jieba
from scipy.misc import imread
from wordcloud import WordCloud, ImageColorGenerator
import matplotlib.pyplot as plt
from collections import Counter

# 从数据库读取数据
MONGO_URL = 'localhost'
MONGO_DB = 'douban'
MONGO_COLLECTION = 'jiangye_comments'
client = pymongo.MongoClient(MONGO_URL)
db = client[MONGO_DB]

data = pd.DataFrame(list(db[MONGO_COLLECTION].find()))

def analysis(data):
	jieba.load_userdict("userdict.txt")
	text = ''
	for i in data['comments'].values:
		symbol_to_replace = '[!"#$%&\'()*+,-./:;<=>?@,。?★、…【】《》?“”‘’![\\]^_`{|}~]+'
		i = re.sub(symbol_to_replace, '', i)
		text += ' '.join(jieba.cut(i, cut_all=False))
	# print(text)
	d = path.dirname(__file__) if "__file__" in locals() else os.getcwd()
	background_Image = np.array(Image.open(path.join(d, "chen.jpg")))
	
	# 添加stopswords
	stopwords = set()
	# 先运行对text进行词频统计再排序,再选择要增加的停用词
	stopwords.update(['如何','怎么','一个','什么','为什么','还是','我们','为何','可能','不是','没有','哪些','成为','可以','背后','到底','就是','这么','不要','怎样','为了','能否','你们','还有','这样','这个','真的','那些','觉得','虽然','除了','感觉','但是','很多','有点','已经','那么','完全','实在','开始','其他','自己'])
	wc = WordCloud(
		background_color = 'black',
		font_path = "C:\\Windows\\Fonts\\simhei.ttf",
		mask = background_Image,
		stopwords = stopwords,
		max_words = 2000,
		margin = 2,
		max_font_size = 100,
		random_state = 42,
		scale = 2
	)
	wc.generate_from_text(text)
	process_word = WordCloud.process_text(wc, text)
	# 下面是字典排序
	sort = sorted(process_word.items(), key=lambda e:e[1], reverse=True)
	print(sort[:50])
	img_colors = ImageColorGenerator(background_Image)
	wc.recolor(color_func = img_colors)
	plt.imshow(wc, interpolation='bilinear')
	plt.axis('off')
	plt.tight_layout()
	plt.savefig('jiangye.png', dpi=200)
	plt.show()

# 绘制词云
analysis(data)

最后绘制的词云如下:
获得的词云

Python网络爬虫与推荐算法新闻推荐平台:网络爬虫:通过Python实现新浪新闻的爬取,可爬取新闻页面上的标题、文本、图片、视频链接(保留排版) 推荐算法:权重衰减+标签推荐+区域推荐+热点推荐.zip项目工程资源经过严格测试可直接运行成功且功能正常的情况才上传,可轻松复刻,拿到资料包后可轻松复现出一样的项目,本人系统开发经验充足(全领域),有任何使用问题欢迎随时与我联系,我会及时为您解惑,提供帮助。 【资源内容】:包含完整源码+工程文件+说明(如有)等。答辩评审平均分达到96分,放心下载使用!可轻松复现,设计报告也可借鉴此项目,该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的。 【提供帮助】:有任何使用问题欢迎随时与我联系,我会及时解答解惑,提供帮助 【附带帮助】:若还需要相关开发工具、学习资料等,我会提供帮助,提供资料,鼓励学习进步 【项目价值】:可用在相关项目设计中,皆可应用在项目、毕业设计、课程设计、期末/期中/大作业、工程实训、大创等学科竞赛比赛、初期项目立项、学习/练手等方面,可借鉴此优质项目实现复刻,设计报告也可借鉴此项目,也可基于此项目来扩展开发出更多功能 下载后请首先打开README文件(如有),项目工程可直接复现复刻,如果基础还行,也可在此程序基础上进行修改,以实现其它功能。供开源学习/技术交流/学习参考,勿用于商业用途。质量优质,放心下载使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值