Python使用asyncio+aiohttp异步爬取猫眼电影专业版

 

asyncio是从pytohn3.4开始添加到标准库中的一个强大的异步并发库,可以很好地解决python中高并发的问题,入门学习可以参考官方文档

并发访问能极大的提高爬虫的性能,但是requests访问网页是阻塞的,无法并发,所以我们需要一个更牛逼的库 aiohttp ,它的用法与requests相似,可以看成是异步版的requests,下面通过实战爬取猫眼电影专业版来熟悉它们的使用:

1. 分析

分析网页源代码发现猫眼专业版是一个动态网页,其中的数据都是后台传送的,打开F12调试工具,再刷新网页选择XHR后发现第一条就是后台发来的电影数据,由此得到接口 https://box.maoyan.com/promovie/api/box/second.json?beginDate=日期

 
在这里插入图片描述

 


2. 异步爬取

创建20个任务来并发爬取20天的电影信息并写入csv文件,同时计算一下耗费的时间

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
import asyncio
from  aiohttp import ClientSession
import aiohttp
import time
import csv
import ssl
ssl._create_default_https_context = ssl._create_unverified_context
headers = { 'User-Agent' 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) '
                              'AppleWebKit/537.36 (KHTML, like Gecko) '
                              'Chrome/67.0.3396.99 Safari/537.36' }
 
# 协程函数,完成一个无阻塞的任务
async def get_one_page(url):
 
     try :
         conn = aiohttp.TCPConnector(verify_ssl=False)  # 防止ssl报错
         async with aiohttp.ClientSession(connector=conn)  as  session:  # 创建session
 
             async with session. get (url, headers=headers)  as  r:
                 # 返回解析为字典的电影数据
                 return   await r.json()
     except Exception  as  e:
         print( '请求异常: '  + str(e))
         return  {}
 
 
# 解析函数,提取每一条内容并写入csv文件
def parse_one_page(movie_dict, writer):
     try :
         movie_list = movie_dict[ 'data' ][ 'list' ]
         for  movie  in  movie_list:
             movie_name = movie[ 'movieName' ]
             release = movie[ 'releaseInfo' ]
             sum_box = movie[ 'sumBoxInfo' ]
             box_info = movie[ 'boxInfo' ]
             box_rate = movie[ 'boxRate' ]
             show_info = movie[ 'showInfo' ]
             show_rate = movie[ 'showRate' ]
             avg_show_view = movie[ 'avgShowView' ]
             avg_seat_view = movie[ 'avgSeatView' ]
             writer.writerow([movie_name, release, sum_box, box_info, box_rate,
                             show_info, show_rate, avg_show_view, avg_seat_view])
         return ( '写入成功' )
     except Exception  as  e:
         return ( '解析异常: '  + str(e))
 
 
# 并发爬取
async def main():
 
     # 待访问的20个URL链接
     urls = [ 'https://box.maoyan.com/promovie/api/box/second.json?beginDate=201904{}{}' .format(i, j)  for  in  range(1, 3)  for  in  range(10)]
     # 任务列表
     tasks = [get_one_page(url)  for  url  in  urls]
     # 并发执行并保存每一个任务的返回结果
     results = await asyncio.gather(*tasks)
 
     # 处理每一个结果
     with open( 'pro_info.csv' 'w' as  f:
         writer = csv.writer(f)
         for  result  in  results:
             print(parse_one_page(result, writer))
 
 
if  __name__ ==  "__main__" :
     
     start = time.time()
     
     # asyncio.run(main())
     # python3.7之前的写法
     loop = asyncio.get_event_loop()
     loop.run_until_complete(main())
     loop.close()
     
     print(time.time()-start)

  

 

3. 对比同步爬取

import requests
import csv import time headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) ' 'AppleWebKit/537.36 (KHTML, like Gecko) ' 'Chrome/67.0.3396.99 Safari/537.36'} def get_one_page(url): try: r = requests.get(url, headers=headers) r.raise_for_status() r.encoding = r.apparent_encoding return r.json() except Exception as e: print('请求异常: ' + e) return {} def parse_one_page(movie_dict, writer): try: movie_list = movie_dict['data']['list'] for movie in movie_list: movie_name = movie['movieName'] release = movie['releaseInfo'] sum_box = movie['sumBoxInfo'] box_info = movie['boxInfo'] box_rate = movie['boxRate'] show_info = movie['showInfo'] show_rate = movie['showRate'] avg_show_view = movie['avgShowView'] avg_seat_view = movie['avgSeatView'] writer.writerow([movie_name, release, sum_box, box_info, box_rate, show_info, show_rate, avg_show_view, avg_seat_view]) print('写入成功') except Exception as e: print('解析异常: ' + e) def main(): # 待访问的20个URL链接 urls = ['https://box.maoyan.com/promovie/api/box/second.json?beginDate=201903{}{}'.format(i, j) for i in range(1, 3) for j in range(10)] with open('out/pro_info.csv', 'w') as f: writer = csv.writer(f) for url in urls: # 逐一处理 movie_dict = get_one_page(url) parse_one_page(movie_dict, writer) if __name__ == '__main__': a = time.time() main() print(time.time() - a) 
 
在这里插入图片描述

可以看到使用asyncio+aiohttp的异步爬取方式要比简单的requests同步爬取快上不少,尤其是爬取大量网页的时候,这种差距会非常明显。

 

转载于:https://www.cnblogs.com/huhuxixi/p/10838500.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这个项目的大致流程如下: 1. 使用 Python 的 requests 和 Beautiful Soup 库爬取猫眼电影网站的电影信息,包括电影名称、评分、评论人数、上映时间等等。可以使用多线程或异步加速爬取过程。 2. 将爬取到的电影信息存储到 MySQL 数据库中,可以使用 Python 的 pymysql 库进行数据库的连接和操作。 3. 使用 Flask 框架编写 Web 应用程序,提供数据查询和展示功能。可以使用 Flask 的模板引擎 Jinja2 来渲染页面。 4. 使用 PyChart 库对电影数据进行可视化分析,生成各种图表,如柱状图、折线图、饼图等等,以展示电影数据的特征和规律。 具体实现步骤如下: 1. 爬取猫眼电影网站的电影信息 使用 requests 和 Beautiful Soup 库爬取猫眼电影网站的电影信息。可以先通过浏览器查看网页的源代码,找到电影信息的 HTML 标签和属性,再通过 Beautiful Soup 解析并提取出需要的信息。例如,可以使用以下代码爬取电影名称和评分: ```python import requests from bs4 import BeautifulSoup url = 'https://maoyan.com/films' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'html.parser') movies = soup.find_all('div', class_='movie-item-hover') for movie in movies: name = movie.find('span', class_='name').text score = movie.find('span', class_='score').text print(name, score) ``` 2. 将电影信息存储到 MySQL 数据库中 使用 pymysql 库连接 MySQL 数据库,并将爬取到的电影信息存储到数据库中。可以先创建一个 movies 表来存储电影信息,包括电影名称、评分、评论人数、上映时间等字段。例如,可以使用以下代码将电影信息存储到数据库中: ```python import pymysql # 连接数据库 conn = pymysql.connect( host='localhost', port=3306, user='root', password='123456', database='test', charset='utf8mb4' ) # 创建 movies 表 cursor = conn.cursor() create_table_sql = ''' CREATE TABLE IF NOT EXISTS movies ( id INT AUTO_INCREMENT PRIMARY KEY, name VARCHAR(100) NOT NULL, score FLOAT NOT NULL, comments INT NOT NULL, release_date DATE NOT NULL ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4; ''' cursor.execute(create_table_sql) # 将电影信息插入数据库 for movie in movies: name = movie.find('span', class_='name').text score = float(movie.find('span', class_='score').text) comments = int(movie.find('div', class_='movie-item-number').find_all('span')[2].text[:-3]) release_date = movie.find_all('div', class_='movie-hover-title')[1].text.split(':')[1] insert_sql = f''' INSERT INTO movies (name, score, comments, release_date) VALUES ('{name}', {score}, {comments}, '{release_date}') ''' cursor.execute(insert_sql) conn.commit() # 关闭连接 cursor.close() conn.close() ``` 3. 使用 Flask 编写 Web 应用程序 使用 Flask 框架编写 Web 应用程序,提供数据查询和展示功能。可以使用 Flask 的模板引擎 Jinja2 来渲染页面。例如,可以先创建一个 index.html 模板文件来展示电影数据: ```html <!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <title>猫眼电影数据分析</title> </head> <body> <h1>猫眼电影数据分析</h1> <table> <tr> <th>电影名称</th> <th>评分</th> <th>评论人数</th> <th>上映时间</th> </tr> {% for movie in movies %} <tr> <td>{{ movie.name }}</td> <td>{{ movie.score }}</td> <td>{{ movie.comments }}</td> <td>{{ movie.release_date }}</td> </tr> {% endfor %} </table> </body> </html> ``` 然后,在 Flask 应用程序中定义一个路由,从数据库中获取电影数据,并渲染模板文件: ```python from flask import Flask, render_template import pymysql # 连接数据库 conn = pymysql.connect( host='localhost', port=3306, user='root', password='123456', database='test', charset='utf8mb4' ) # 创建 Flask 应用程序 app = Flask(__name__) # 定义路由,获取电影数据并渲染模板文件 @app.route('/') def index(): cursor = conn.cursor(pymysql.cursors.DictCursor) select_sql = ''' SELECT * FROM movies ''' cursor.execute(select_sql) movies = cursor.fetchall() cursor.close() return render_template('index.html', movies=movies) # 启动应用程序 if __name__ == '__main__': app.run(debug=True) ``` 4. 使用 PyChart 库进行数据可视化分析 使用 PyChart 库对电影数据进行可视化分析,生成各种图表,如柱状图、折线图、饼图等等,以展示电影数据的特征和规律。例如,可以使用以下代码生成一个柱状图,展示电影评分的分布情况: ```python from pychart import * import pymysql # 连接数据库 conn = pymysql.connect( host='localhost', port=3306, user='root', password='123456', database='test', charset='utf8mb4' ) # 查询电影数据 cursor = conn.cursor() select_sql = ''' SELECT score, COUNT(*) AS count FROM movies GROUP BY score ''' cursor.execute(select_sql) data = cursor.fetchall() cursor.close() # 生成柱状图 chart = VerticalBarChart() chart.addDataset([row[1] for row in data]) chart.setLegend([f'{row[0]:.1f} 分' for row in data]) chart.setXAxis({'title': '评分'}) chart.setYAxis({'title': '电影数量'}) chart.setTitle('电影评分分布图') chart.setColors(['blue', 'red', 'green', 'yellow', 'purple']) chart.download('score.png') ``` 以上是一个简单的 Python 爬取猫眼电影+MySQL+Flask+PyChart 数据分析的项目流程,具体实现还需要根据实际需求进行调整和优化。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值