Python爬虫(一)--爬取猫眼Top100排行

这篇博客介绍了作者初次尝试Python爬虫的经历,通过requests库和正则表达式爬取猫眼电影网站的Top100排行榜,并将结果保存为txt文件。重点讲解了如何设置User-Agent、解析网页以及使用正则表达式匹配电影信息,最后还提到了使用JSON文件存储爬取数据的方法。
摘要由CSDN通过智能技术生成

1.概述

    这是博主接触的第一个爬虫实例,利用python的request库和正则表达式对猫眼网站的Top100电影进行爬取,将结果打印出来并保存成txt文件。关键的部分有以下三点:

  1. python中request库的简单使用。
  2. 利用re模块来解析request到的页面。
  3. json格式文件存储和读取方法。

2.详细代码以及注释如下:

# -*-coding:utf-8 -*-
import json
import requests
from requests.exceptions import RequestException
import re
import time


def get_one_page(url):
    try:
        headers = {
            'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'
        }
        response = requests.get(url, headers=headers)
        if response.status_code == 200:
            return response.text
        return None
    except RequestException:
        return None


def parse_one_page(html):
    #re.S使得匹配包括换行符在内的所有字符。
    pattern = re.compile('<dd>.*?board-index.*?>(\d&#
  • 1
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值