Python实战:构建一个自动化的MOOC课程评论爬虫

作者信息
Name :Zing ;
Ema i l : bwcxzsj@stu. hbnu. edu. cn

目录

一、自动化流程介绍

1.1获取登录二维码

1.2用户扫描二维码

1.3验证登录状态

1.4课程搜索及保存封面图片

1.5点击指定搜索结果

1.6获取课程评价信息

二、代码实现

(一)准备工作

a.自动化流程图

b.导入需要的包

(二)定义功能函数并调试程序

1.def del_and_create_dir(filename):

2.def get_browser_version():

3.def auto_update_driver():

4.def save_course_images(driver, num_images):

5.def download_qr_code():

6 .def qr_code_login():

7.def get_MOOC(browser, url, search_text, sum_page, num_images):

8.编写主程序调用功能函数运行


简单说明

    在上一篇博客中,我们了解了爬虫的基本概念和基础功能,并用python实现了一个简单的收集慕课网站上相关课程的评论的爬虫程序。在这篇文章中我们基于这个程序做了简单的改进,增加了一些新的功能,如增添了一个用户扫码登录功能,以及爬取到的内容不仅是评论的文字也能收集该课程的封面图片等。下面我将对这个爬虫程序进行详细的讲解。

一、自动化流程介绍

该实战代码主要实现了通过扫码登录并利用Selenium爬取MOOC课程信息的完整流程。

1.1获取登录二维码

      通过download_qr_code函数获取扫码登录页面的二维码图片及其对应的唯一标志key(pollKey)。该函数访问MOOC网站的扫码登录接口,下载并保存二维码图片,同时返回用于轮询登录状态的pollKey。

1.2用户扫描二维码

    poll_server函数利用pollKey进行轮询,检查用户是否已扫码并确认登录。通过持续请求服务器,判断扫码状态是否变更为已扫码成功状态,一旦成功,则获取服务器返回的token。

1.3验证登录状态

    login_with_token函数使用获取的token向服务器验证登录状态,并获取登录后的cookies。整个扫码登录流程通过qr_code_login函数协调执行,返回登录后的cookies。

    在获取到登录后的cookies后,代码进入下一阶段。get_MOOC函数首先初始化Selenium的Edge浏览器驱动并打开MOOC网站。然后,通过调用qr_code_login函数获取登录后的cookies,并将这些cookies添加到Selenium浏览器会话中,确保浏览器具有登录状态。

1.4课程搜索及保存封面图片

    代码进行课程搜索。在页面加载完成后,利用Selenium找到搜索框并输入搜索关键词,然后点击搜索按钮。搜索结果加载后,切换到新打开的窗口,保存指定数量的课程封面图片。

1.5点击指定搜索结果

    在保存封面图片后,点击搜索结果中的第一个课程,进入课程详情页面。然后点击页面中的“课程评价”按钮,打开评价页面。

1.6获取课程评价信息

    代码随后开始爬取评价信息。通过PyQuery解析页面内容,获取当前页面的所有评价文本,并保存到本地文件中。同时,代码会对当前页面截图保存。爬取当前页面的评价信息后,点击“下一页”按钮,重复上述过程,直到爬取完指定数量的页面。

以上是基于整个流程的总体介绍,下面我们来编写代码进行详细解释。

二、代码实现

(一)准备工作

a.自动化流程图

b.导入需要的包
import requests
import time
import os
import re
import xml.dom.minidom
import urllib.request
from selenium import webdriver
from selenium.webdriver.edge.service import Service
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from pyquery import PyQuery

 注意:最开始导入这些库的时候,部分库可能不存在电脑上,需要手动在pycharm或其他编译软件终端 输入 (以requests库不存在为例)pip install requests 并按回车键

(二)定

爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值