Python多进程爬取电影信息

观察翻页时详情页面url地址变化规律
在这里插入图片描述

import json
from os import makedirs
from os.path import exists
import requests
import logging
import re
from urllib.parse import urljoin
import multiprocessing

# 定义了下日志输出级别和输出格式
logging.basicConfig(level=logging.INFO,
                    format='%(asctime)s - %(levelname)s: %(message)s')

BASE_URL = 'https://ssr1.scrape.center'
TOTAL_PAGE = 10

RESULTS_DIR = 'results'
exists(RESULTS_DIR) or makedirs(RESULTS_DIR)

# 爬取列表页
def scrape_page(url):
    """
    scrape page by url and return its html
    :param url: page url
    :return: html of page
    """
    logging.info('scraping %s...', url)
    try:
        response = requests.get(url)
        if response.status_code == 200:
            return response.text
        logging.error('get invalid status code %s while scraping %s',
                      response.status_code, url)
    except requests.RequestException:
        logging.error('error occurred while scraping %s', url, exc_info=True)

# 爬取详情列表页
def scrape_index(page):
    """
    scrape index page and return its html
    :param page: page of index page
    :return: html of index page
    """
    index_url = f'{BASE_URL}/page/{page}'
    return scrape_page(index_url)

# 解析详情列表页
def parse_index(html):
    """
    parse index page and return detail url
    :param html: html of index page
    """
    pattern = re.compile('<a.*?href="(.*?)".*?class="name">')
    items = re.findall(pattern, html)
    if not items:
        return []
    for item in items:
        detail_url = urljoin(BASE_URL, item)
        logging.info('get detail url %s', detail_url)
        yield detail_url

# 爬取详情页
def scrape_detail(url):
    """
    scrape detail page and return its html
    :param page: page of detail page
    :return: html of detail page
    """
    return scrape_page(url)

# 解析详情页正则匹配方法
def parse_detail(html):
    """
    parse detail page
    :param html: html of detail page
    :return: data
    """

    cover_pattern = re.compile(
        'class="item.*?<img.*?src="(.*?)".*?class="cover">', re.S)
    name_pattern = re.compile('<h2.*?>(.*?)</h2>')
    categories_pattern = re.compile(
        '<button.*?category.*?<span>(.*?)</span>.*?</button>', re.S)
    published_at_pattern = re.compile('(\d{4}-\d{2}-\d{2})\s?上映')
    drama_pattern = re.compile('<div.*?drama.*?>.*?<p.*?>(.*?)</p>', re.S)
    score_pattern = re.compile('<p.*?score.*?>(.*?)</p>', re.S)
    
    # 结果只有一个,用 search 方法提取即可
    # 结果有多个,使用 findall 方法提取,结果是一个列表
    cover = re.search(cover_pattern, html).group(
        1).strip() if re.search(cover_pattern, html) else None
    name = re.search(name_pattern, html).group(
        1).strip() if re.search(name_pattern, html) else None
    categories = re.findall(categories_pattern, html) if re.findall(
        categories_pattern, html) else []
    published_at = re.search(published_at_pattern, html).group(
        1) if re.search(published_at_pattern, html) else None
    drama = re.search(drama_pattern, html).group(
        1).strip() if re.search(drama_pattern, html) else None
    score = float(re.search(score_pattern, html).group(1).strip()
                  ) if re.search(score_pattern, html) else None

    return {
        'cover': cover,
        'name': name,
        'categories': categories,
        'published_at': published_at,
        'drama': drama,
        'score': score
    }


# 解析详情页pq方法
from pyquery import PyQuery as pq
def parse_detail(html):
    """
    parse detail page
    :param html: html of detail page
    :return: data
    """
    doc = pq(html)
    cover = doc('img.cover').attr('src')
    name = doc('a > h2').text()
    categories = [item.text() for item in doc('.categories button span').items()]
    published_at = doc('.info:contains(上映)').text()
    published_at = re.search('(\d{4}-\d{2}-\d{2})', published_at).group(1) \
        if published_at and re.search('\d{4}-\d{2}-\d{2}', published_at) else None
    drama = doc('.drama p').text()
    score = doc('p.score').text()
    score = float(score) if score else None
    return {
        'cover': cover,
        'name': name,
        'categories': categories,
        'published_at': published_at,
        'drama': drama,
        'score': score
    }


# 保存数据
def save_data(data):
    """
    save to json file
    :param data:
    :return:
    """
    name = data.get('name')
    data_path = f'{RESULTS_DIR}/{name}.json'
    json.dump(data, open(data_path, 'w', encoding='utf-8'),
              ensure_ascii=False, indent=2)

# main 方法
def main(page):
    """
    main process
    :return:
    """
    index_html = scrape_index(page)
    detail_urls = parse_index(index_html)
    for detail_url in detail_urls:
        detail_html = scrape_detail(detail_url)
        data = parse_detail(detail_html)
        logging.info('get detail data %s', data)
        logging.info('saving data to json file')
        save_data(data)
        logging.info('data saved successfully')

# 多进程加速
if __name__ == '__main__':
    pool = multiprocessing.Pool()
    pages = range(1, TOTAL_PAGE + 1)
    pool.map(main, pages)
    pool.close()



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: Python是一种非常流行的编程语言,它具有众多优势,包括易学易用、开发效率高等。在数据爬取方面,Python也具有相对优势,可以通过多线程和多进程来提高数据爬取效率。 多线程是一种将一个进程分为多个线程执行的技术,可以有效利用计算机的资源,同时完成多个任务。在数据爬取方面,可以将多个URL请求分配到不同的线程中去执行,从而实现同时请求多个URL,提高数据爬取速度和效率。 多进程则是将一个任务分为多个进程执行,每个进程有自己的资源和空间,在数据爬取方面,可以将不同的URL请求分配到不同的进程中去执行,这样可以充分利用计算机的多核处理器,同时完成多个任务,提高数据爬取效率。 在使用Python进行数据爬取时,需要根据实际的情况选用合适的多线程或多进程方式来处理数据,其中需要注意线程间共享资源的问题,尤其是多个线程同时访问同一份数据时需要进行合理的控制和调度。 总的来说,通过使用Python的多线程和多进程技术,可以有效提高数据爬取效率,从而更好的服务于数据分析和应用。 ### 回答2: 随着互联网的发展,数据量爆炸式增长,数据爬取成为了许多公司和个人必不可少的工作。而对于数据爬取而言,效率和速度是非常重要的因素。因此,在进行大规模数据爬取时,采用多线程或多进程技术可以大大提高爬取效率。 首先,我们来理解一下什么是多线程和多进程。多线程是在一个进程内开启多个线程,这些线程共享进程的资源,如内存等。多线程适合IO密集型的操作,如网络爬虫、文件读写等。而多进程则是在操作系统中开启多个进程,各自拥有独立的资源,如内存、文件等。多进程适合CPU密集型的操作,如图像识别、加密解密等。因此,在选择多线程还是多进程时,需要根据具体爬取任务进行考虑。 对于Python而言,它可以通过使用 threading 和 multiprocessing 模块来实现多线程和多进程,分别引入 Thread 和 Process 两个类。而在网络爬虫中,多线程运行多个爬取任务,可以大大提高页面的下载速度。在爬虫程序中,我们可以通过 Python 对于 urllib 和 requests 模块进行多线程异步请求,利用 Python 线程池 ThreadPoolExecutor 和 asyncio 模块的异步特性,实现高性能网络爬虫。 另外,在进行数据爬取时,需要注意反爬机制,如设置合适的请求头、降低请求频率等。同时,也需要注意保持数据的一致性和准确性。在使用多线程或多进程进行数据爬取时,也需要注意线程和进程间的交互和同步,如使用队列等数据结构进行数据共享、使用锁机制进行数据的同步等。 综上所述,Python 多线程多进程爬取大量数据可以提高爬取效率和速度,但也需要根据具体任务进行选择。同时,在进行数据爬取时需要注意反爬机制和数据的一致性和准确性,保证数据的安全和可信度。 ### 回答3: Python作为一种高级编程语言,在数据采集和分析方面具有优秀的表现。为了能更快地完成数据爬取任务,Python可以使用多线程和多进程方式。下面我们来介绍一下这两种方式具体的特点和使用方法。 首先,Python的多线程方式是通过创建多个线程来同时执行任务,这些线程共享同一个进程空间,因此可以用来提高数据爬取效率。在多线程模式下,每个线程都有自己的任务和数据,这些线程可以并行地执行,从而大大提升了数据爬取的速度。同时,多线程也可以实现类似于并发、异步的效果,因为每个线程都可以独立地进行访问和解析等操作。 然而,在Python中使用多线程还是存在一些限制的。由于GIL(Global Interpreter Lock)的限制,多线程模式不能充分利用多核CPU的优势,因为这些线程都是在同一个进程中运行的,而GIL只允许有一个线程在同一时间内执行Python代码。因此,在需要利用多核CPU的情况下,需要使用多进程方式。 基于多进程的方式,可以将一个任务划分为若干个子任务,每个子任务运行在独立的进程中,它们之间互不干扰。这样,每个进程都可以利用独立的CPU核心来执行任务,从而提高了并发性和整体运行效率。而且,在多进程模式下,Python可以很好地利用操作系统的资源管理功能,同时能够充分利用硬件资源,实现高效的数据爬取。 总的来说,Python的多线程和多进程方式都可以用来实现数据爬取,并且都有各自的优点和适用场景。在实际应用中,应该根据任务的复杂度和硬件环境等因素来选择最适合的方式。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

rubyw

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值