练练手:用Python爬虫抓取网页

本节讲解第一个 Python 爬虫实战案例:抓取您想要的网页,并将其保存至本地计算机。

首先我们对要编写的爬虫程序进行简单地分析,该程序可分为以下三个部分:

  • 拼接 url 地址
  • 发送请求
  • 将照片保存至本地

明确逻辑后,我们就可以正式编写爬虫程序了。

导入所需模块

本节内容使用 urllib 库来编写爬虫,下面导入程序所用模块:

**

from urllib import request
from urllib import parse

拼接URL地址

定义 URL 变量,拼接 url 地址。代码如下所示:

  1. url = ‘http://www.baidu.com/s?wd={}’
  2. #想要搜索的内容
  3. word = input(‘请输入搜索内容:’)
  4. params = parse.quote(word)
  5. full_url = url.format(params)

向URL发送请求

发送请求主要分为以下几个步骤:

  • 创建请求对象-Request
  • 获取响应对象-urlopen
  • 获取响应内容-read

代码如下所示:

  1. #重构请求头
  2. headers = {‘User-Agent’:‘Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0’}
  3. #创建请求对应
  4. req = request.Request(url=full_url,headers=headers)
  5. #获取响应对象
  6. res = request.urlopen(req)
  7. #获取响应内容
  8. html = res.read().decode(“utf-8”)

保存为本地文件

把爬取的照片保存至本地,此处需要使用 Python 编程的文件 IO 操作,代码如下:

  1. filename = word + ‘.html’
  2. with open(filename,‘w’, encoding=‘utf-8’) as f:
  3. f.write(html)

完整程序如下所示:

  1. from urllib import request,parse
  2. 1.拼url地址

  3. url = ‘http://www.baidu.com/s?wd={}’
  4. word = input(‘请输入搜索内容:’)
  5. params = parse.quote(word)
  6. full_url = url.format(params)
  7. 2.发请求保存到本地

  8. headers = {‘User-Agent’:‘Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0’}
  9. req = request.Request(url=full_url,headers=headers)
  10. res = request.urlopen(req)
  11. html = res.read().decode(‘utf-8’)
  12. 3.保存文件至当前目录

  13. filename = word + ‘.html’
  14. with open(filename,‘w’,encoding=‘utf-8’) as f:
  15. f.write(html)

尝试运行程序,并输入编程帮,确认搜索,然后您会在 Pycharm 当前的工作目录中找到“编程帮.html”文件。

函数式编程修改程序

Python 函数式编程可以让程序的思路更加清晰、易懂。接下来,使用函数编程的思想更改上面代码。

定义相应的函数,通过调用函数来执行爬虫程序。修改后的代码如下所示:

  1. from urllib import request
  2. from urllib import parse
  3. 拼接URL地址

  4. def get_url(word):
  5. url = ‘http://www.baidu.com/s?{}’
  6. #此处使用urlencode()进行编码
  7. params = parse.urlencode({‘wd’:word})
  8. url = url.format(params)
  9. return url
  10. 发请求,保存本地文件

  11. def request_url(url,filename):
  12. headers = {‘User-Agent’:‘Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0’}
  13. 请求对象 + 响应对象 + 提取内容

  14. req = request.Request(url=url,headers=headers)
  15. res = request.urlopen(req)
  16. html = res.read().decode(‘utf-8’)
  17. 保存文件至本地

  18. with open(filename,‘w’,encoding=‘utf-8’) as f:
  19.  f.write(html)
    
  20. 主程序入口

  21. if name == ‘main’:
  22. word = input(‘请输入搜索内容:’)
  23. url = get_url(word)
  24. filename = word + ‘.html’
  25. request_url(url,filename)

除了使用函数式编程外,您也可以使用面向对象的编程方法(本教程主要以该方法),在后续内容中会做相应介绍。

这里给大家分享一份Python全套学习资料,包括学习路线、软件、源码、视频、面试题等等,都是我自己学习时整理的,希望可以对正在学习或者想要学习Python的朋友有帮助!

CSDN大礼包:全网最全《全套Python学习资料》免费分享🎁

😝有需要的小伙伴,可以点击下方链接免费领取或者V扫描下方二维码免费领取🆓

👉CSDN大礼包🎁:全网最全《Python学习资料》免费分享(安全链接,放心点击)👈

1️⃣零基础入门

① 学习路线

对于从来没有接触过Python的同学,我们帮你准备了详细的学习成长路线图。可以说是最科学最系统的学习路线,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
在这里插入图片描述

② 路线对应学习视频

还有很多适合0基础入门的学习视频,有了这些视频,轻轻松松上手Python~在这里插入图片描述

③练习题

每节视频课后,都有对应的练习题哦,可以检验学习成果哈哈!
在这里插入图片描述
因篇幅有限,仅展示部分资料

2️⃣国内外Python书籍、文档

① 文档和书籍资料

在这里插入图片描述

3️⃣Python工具包+项目源码合集

①Python工具包

学习Python常用的开发软件都在这里了!每个都有详细的安装教程,保证你可以安装成功哦!
在这里插入图片描述

②Python实战案例

光学理论是没用的,要学会跟着一起敲代码,动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。100+实战案例源码等你来拿!
在这里插入图片描述

③Python小游戏源码

如果觉得上面的实战案例有点枯燥,可以试试自己用Python编写小游戏,让你的学习过程中增添一点趣味!
在这里插入图片描述

4️⃣Python面试题

我们学会了Python之后,有了技能就可以出去找工作啦!下面这些面试题是都来自阿里、腾讯、字节等一线互联网大厂,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。
在这里插入图片描述
在这里插入图片描述

5️⃣Python兼职渠道

而且学会Python以后,还可以在各大兼职平台接单赚钱,各种兼职渠道+兼职注意事项+如何和客户沟通,我都整理成文档了。
在这里插入图片描述
在这里插入图片描述
上述所有资料 ⚡️ ,朋友们如果有需要 📦《全套Python学习资料》的,可以扫描下方二维码免费领取 🆓
😝有需要的小伙伴,可以点击下方链接免费领取或者V扫描下方二维码免费领取🆓

👉CSDN大礼包🎁:全网最全《Python学习资料》免费分享(安全链接,放心点击)👈

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
当然!我可以为您提供一些关于Python爬虫数据练习的建议。以下是一些常见的练习项目,您可以根据自己的兴趣和需求选择其中之一或多个进行练习: 1. 爬取网页数据:使用Python的 requests 库或者 scrapy 框架,爬取一个网页的内容,并将其保存到本地文件或者数据库中。 2. 数据解析:在上述爬取的网页数据中,解析出您感兴趣的信息。可以使用正则表达式、BeautifulSoup 或者 lxml 等库来解析 HTML 或 XML 数据。 3. 图片爬取:通过爬虫程序下载某个网站上的图片。您可以使用 requests 库下载图片,也可以使用第三方库如 urllib 或者 wget。 4. 数据存储:将爬取到的数据存储到数据库中,如 MySQL、SQLite 或者 MongoDB。您可以使用 Python 的数据库模块(如 pymysql、sqlite3 或 pymongo)来实现数据存储功能。 5. 动态网页爬取:对于使用 JavaScript 动态生成内容的网页,您可以使用 Selenium 或者 Pyppeteer 等工具来模拟浏览器行为,以获取动态生成的数据。 6. API 数据爬取:通过调用API接口获取数据。许多网站提供API接口供开发者获取数据,您可以使用 Python 的 requests 库来发送请求,并处理返回的 JSON 数据。 请注意,在进行爬虫练习时,务必遵守网站的爬虫规则和法律法规,不要对目标网站造成不必要的压力或侵犯其合法权益。 希望这些练习能帮助您提升Python爬虫的技能!如果您有任何进一步的问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值