【PyCharm】从零到一:Python爬虫实战教程,小白、绕过反爬虫机制、实战案例全解析


前言

爬虫(Web Crawler)是一种自动浏览万维网并从中收集信息的程序。它们常被用于搜索引擎、数据分析、市场研究等领域。在本文中,我将通过一个简单的Python爬虫实例(获取豆瓣评分前250的电影名称)来演示如何从一个网页中抓取数据。

正如标题所说,本文的关键词为:从零到一、小白、绕过反爬虫机制、实战案例全解析。本文的实战案例也是很多人入门的第一个案例,希望能够帮助到第一次接触爬虫的你。


一、使用的工具

本文使用的工具为:PyCharm 2024.1.5 (Community Edition) 。

工具的安装可以参考这篇博客:【Python、PyCharm】介绍与安装

二、安装必要的库

  • 在PyCharm的控制台终端界面输入“ pip install requests beautifulsoup4 ”命令,如图:
    安装库

三、编写程序

1.引入库

  • 因为需要使用Python的requests库来发送HTTP请求,并使用BeautifulSoup库来解析HTML内容。

代码如下(示例):

import requests
from bs4 import BeautifulSoup

2.发送GET请求

response = requests.get("https://movie.douban.com/top250")
print(response.status_code)

输出如下(示例):

418

3.绕过反爬虫机制

  • 因为返回的状态码为“418”,418是一个HTTP协议的状态码,也被称为“I’m a teapot”(我是一个茶壶)。状态码418用于表示服务器拒绝为客户端做出请求,因为服务器被认为是一个茶壶,无法为客户端泡茶。这实际上是一种隐喻,用于嘲讽那些滥用HTTP协议或向不适合的服务器发送请求的行为。
  • 通过定义请求头绕过。
    代码如下(示例):
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36 Edg/127.0.0.0"
}
response = requests.get("https://movie.douban.com/top250",headers=headers)

输出如下(示例):

200

4.解析HTML内容

  • 使用BeautifulSoup解析HTML内容。
    代码如下(示例):
html = response.text
soup = BeautifulSoup(html,"html.parser")

5.输出需要的内容

  • 通过观察HTML的具体内容,编写程序筛选目标内容。以下得到的结果为前25的电影名。
    代码如下(示例):
all_titles = soup.findAll("span",attrs={"class": "title"})
for title in all_titles:
    title_string = title.string
    if '/' not in title_string:
        print(title_string)

输出如下(示例):

肖申克的救赎
霸王别姬
阿甘正传
泰坦尼克号
千与千寻
这个杀手不太冷
美丽人生
星际穿越
盗梦空间
楚门的世界
辛德勒的名单
忠犬八公的故事
海上钢琴师
三傻大闹宝莱坞
放牛班的春天
机器人总动员
疯狂动物城
无间道
控方证人
大话西游之大圣娶亲
熔炉
教父
触不可及
当幸福来敲门
寻梦环游记

四、完整源码

代码如下(示例):

import requests
from bs4 import BeautifulSoup

# 请求头
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36 Edg/127.0.0.0"
}

for start_num in range(0, 250, 25):
    # 向目标网页的URL发送HTTP GET请求
    response = requests.get(f"https://movie.douban.com/top250?start={start_num}", headers=headers)

    # 确保请求成功
    if response.status_code == 200:
        html = response.text

        # 使用BeautifulSoup解析HTML内容
        soup = BeautifulSoup(html, "html.parser")

        # 查找所有标题(<span>),提取"class"属性为"title"的元素
        all_titles = soup.findAll("span", attrs={"class": "title"})

        for title in all_titles:
            title_string = title.string
            if '/' not in title_string:
                print(title_string)

    else:
        print("请求失败,状态码:", response.status_code)

输出如下(示例):

肖申克的救赎
霸王别姬
阿甘正传
泰坦尼克号
千与千寻
这个杀手不太冷
美丽人生
星际穿越
盗梦空间
楚门的世界
辛德勒的名单
忠犬八公的故事
海上钢琴师
三傻大闹宝莱坞
放牛班的春天
机器人总动员
疯狂动物城
无间道
控方证人
大话西游之大圣娶亲
熔炉
教父
触不可及
当幸福来敲门
寻梦环游记
末代皇帝
龙猫
怦然心动
哈利·波特与魔法石
活着
蝙蝠侠:黑暗骑士
指环王3:王者无敌
我不是药神
乱世佳人
飞屋环游记
素媛
哈尔的移动城堡
十二怒汉
让子弹飞
何以为家
海蒂和爷爷
猫鼠游戏
摔跤吧!爸爸
天空之城
鬼子来了
少年派的奇幻漂流
钢琴家
指环王2:双塔奇兵
大话西游之月光宝盒
闻香识女人
死亡诗社
绿皮书
大闹天宫
罗马假日
黑客帝国
指环王1:护戒使者
天堂电影院
教父2
狮子王
辩护人
饮食男女
搏击俱乐部
本杰明·巴顿奇事
美丽心灵
穿条纹睡衣的男孩
窃听风暴
情书
两杆大烟枪
音乐之声
西西里的美丽传说
看不见的客人
哈利·波特与死亡圣器()
阿凡达
拯救大兵瑞恩
功夫
小鞋子
飞越疯人院
沉默的羔羊
布达佩斯大饭店
哈利·波特与阿兹卡班的囚徒
蝴蝶效应
禁闭岛
致命魔术
心灵捕手
超脱
低俗小说
摩登时代
春光乍泄
喜剧之王
海豚湾
致命ID
美国往事
杀人回忆
哈利·波特与密室
红辣椒
加勒比海盗
一一
七宗罪
狩猎
唐伯虎点秋香
7号房的礼物
蝙蝠侠:黑暗骑士崛起
被嫌弃的松子的一生
甜蜜蜜
爱在黎明破晓前
第六感
超能陆战队
请以你的名字呼唤我
重庆森林
入殓师
断背山
寄生虫
剪刀手爱德华
幽灵公主
爱在日落黄昏时
勇敢的心
菊次郎的夏天
借东西的小人阿莉埃蒂
未麻的部屋
消失的爱人
无人知晓
时空恋旅人
完美的世界
阳光灿烂的日子
倩女幽魂
哈利·波特与火焰杯
小森林 夏秋篇
天使爱美丽
茶馆
侧耳倾听
驯龙高手
教父3
新世界
怪兽电力公司
幸福终点站
一个叫欧维的男人决定去死
玩具总动员3
傲慢与偏见
小森林 冬春篇
头脑特工队
被解救的姜戈
萤火之森
色,戒
釜山行
神偷奶爸
九品芝麻官
哪吒闹海
告白
喜宴
玛丽和马克思
大鱼
模仿游戏
头号玩家
花样年华
射雕英雄传之东成西就
七武士
我是山姆
惊魂记
血战钢锯岭
阳光姐妹淘
恐怖直播
你的名字。
黑客帝国3:矩阵革命
三块广告牌
心迷宫
电锯惊魂
达拉斯买家俱乐部
疯狂原始人
小丑
谍影重重3
心灵奇旅
背靠背,脸对脸
上帝之城
绿里奇迹
英雄本色
风之谷
爱在午夜降临前
海街日记
纵横四海
疯狂的石头
卢旺达饭店
无间道2
2001太空漫游
雨中曲
记忆碎片
小偷家族
无敌破坏王
岁月神偷
忠犬八公物语
荒蛮故事
冰川时代
牯岭街少年杀人事件
恐怖游轮
爆裂鼓手
魔女宅急便
东京教父
大佛普拉斯
贫民窟的百万富翁
遗愿清单
末路狂花
东邪西毒
你看起来好像很好吃
可可西里
源代码
城市之光
疯狂的麦克斯4:狂暴之路
海边的曼彻斯特
黑天鹅
波西米亚狂想曲
真爱至上
爱乐之城
芙蓉镇
青蛇
雨人
高山下的花环
初恋这件小事
终结者2:审判日
人工智能
虎口脱险
恋恋笔记本
花束般的恋爱
无耻混蛋
新龙门客栈
罗生门
崖上的波妞
千钧一发
哈利·波特与死亡圣器()
彗星来的那一夜
白日梦想家
萤火虫之墓
黑客帝国2:重装上阵
奇迹男孩
火星救援
二十二
大红灯笼高高挂
战争之王
哈利·波特与凤凰社
血钻
步履不停
千年女优
谍影重重2
房间
魂断蓝桥
蜘蛛侠:平行宇宙
弱点
谍影重重
阿飞正传
朗读者
隐藏人物
再次出发之纽约遇见你

总结

以上,就是第一次爬虫实例的所有内容。本文仅为初步探讨,旨在抛砖引玉,非常期待读者们能够分享看法和见解,再次感谢您的观看,再见。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值