Python爬虫——简单网页抓取(实战案例)小白篇_python爬虫爬取网页数据(1)

Urllib是Python中请求url连接的官方标准库,在Python2中主要为urllib和urllib2,在Python3中整合成了urllib。

1)主要包含以下4个模块

  • urllib.request:用于打开和阅读URL
  • urllib.error:包含由引发的异常urllib.request
  • urllib.parse:用于解析URL
  • urllib.robotparser:用于解析robot.txt文件

2)urllib.request.urlopen()

模块定义了有助于在复杂环境中打开URL(主要是HTTP)的函数和类-基本身份验证和摘要身份验证,重构定向,Cookie等。

语法结构

urllib.request.urlopen(url,data = None,[ timeout,] *,cafile = None,capath = None,cadefault = False,context = None)

语法详解

  • url:传入的对象可以是url也可以是一个request的对象;
  • data:data必须是一个直接要发送搭服务器的其他数据的对象,如果没有data数据的话可以为None,也可以不写。
  • timeout:以秒为单位制定用于组织链接尝试之类的操作超时;

3)urllib.openurl:返回对象的方法

  # 设置一个url对象
  url = "百度一下,你就知道"
  #发送请求,打开url
  up = urllib.request.urlopen(url)
  print(type(up))
  
  #返回对象
>>> <class 'http.client.HTTPResponse'>

上面我们可以看出返回的对象是HTTPResponse类型的,下面一起来看一下HTTPResponse类的方法

发送GET请求:

from urllib import request
response = request.urlopen('百度一下,你就知道')
print(response.read().decode())

发送post请求:

from urllib import reuqest
response = 	request.urlopen('Method Not Allowed', data=b'word=hello')
print(response.read().decode())   #decode()解码

我们已经知道在讲urlopen中传入一个网址的时候他就会主动的去访问目标的网址,会返回一个HTTPResponse类型的对象,那么我们是怎么知道我们发送的get请求和post请求呢?

    def get_method(self):
    """Return a string indicating the HTTP request method."""
    default_method = "POST" if self.data is not None else "GET"
    return getattr(self, 'method', default_method)

这个是源码中的一个方法,根据代码我们得知如果data是不为空的话,就是post请求,否则就是get请求。

4)urllib.request.Request

上面的urllib是可对网页发起请求,在我们实际的爬虫应用中,如果频繁的访问一个网页,网站就会识别我们是不是爬虫,这个时候我们就要利用Request来伪装我们的请求头。

urllib.request.Request(url, data=None, headers={}, origin_req_host=None, unverifiable=False, method=None)

推荐使用request()来进行访问的,因为使用request()来进行访问有两点好处:

  • 可以直接进行post请求,不需要将 data参数转换成JSON格式
  • 直接进行GET请求,不需要自己拼接url参数

如果只进行基本的爬虫网页抓取,那么urllib足够用了。

Requests库

requests库是一个常用于http请求的模块,可以方便的对网页进行爬取,是学习python爬虫比较好的http请求模块,比urllib库更加简洁,并且自带json解析器。

掌握了它,Cookies、登录验证、代理设置等操作都不是事儿。

1)request提供的方法

get(url,params,**kwargs)

  • url: 需要爬取的网站地址。
  • params: url中的额外参数,字典或者字节流格式,可选。
  • **kwargs : 控制访问的参数
post(url, data=None, json=None, **kwargs):

  • url: 需要爬取的网站地址。
  • data:传递的内容。
  • json:json格式传递的内容
  • **kwargs : 控制访问的参数
request(method, url, **kwargs):

  • method:需要使用的方法
  • url:爬行的路径
  • **kwargs : 控制访问的参数

2)控制访问的参数

通过上面方法返回的是一个Response对象,该对象有以下这些属性和方法:

requests的优势在于使用简单,相同一个功能,用requests实现起来代码量要少很多。

戳这里可获取相关的Python基础学习资料哦↓↓↓

下面的所有资料我全部打包好了并且上传至CSDN官方,需要的点击👇获取!

👉 [Python零基础2023入门资料包] 👈

三、开发工具的掌握

  • PyCharm – 交互很好的Python一款IDE;
  • Fiddler – 网页请求监控工具,我们可以使用它来了解用户触发网页请求后发生的详细步骤;

(1)PyCharm

PyCharm是一款著名的Python IDE开发工具,拥有一整套可以帮助用户在使用Python语言开发时提高其效率的工具。

具备基本的调试、语法高亮、Project管理、代码跳转、智能提示、自动完成、单元测试、版本控制。

此外,该IDE提供了一些高级功能,以用于支持Django框架下的专业Web开发。

pycharm官网分为两个版本:

第一个版本是Professional(专业版本),这个版本功能更加强大,主要是为Python和web开发者而准备,是需要付费的。

第二个版本是社区版,一个专业版的阉割版,比较轻量级,主要是为Python和数据专家而准备的。

一般我们做开发,下载专业版本比较合适。

(2)Fiddler

Fiddler是一个http调试代理,它能够记录所有的你电脑和互联网之间的http通讯。

Fiddler 可以也可以让你检查所有的http通讯,设置断点,以及Fiddle 所有的“进出”的数据(指cookie,html,js,css等文件,这些都可以让你胡乱修改的意思)。

要比其他的网络调试器要更加简单,因为它仅仅暴露http通讯还有提供一个用户友好的格式。

1)基本工作原理

会话的概念:一次请求和一次响应就是一个会话。

2)fiddler主界面

工具栏

  • 1:给会话添加备注信息
  • 2:重新加载当前会话
  • 3:删除会话选项
  • 4:放行,和断点对应
  • 5:响应模式。也即是,当Fiddler拿到远程的response后是缓存起来一次响应给客户端还是以stream的方式直接响应。
  • 6:解码,有些请求是被编码的,点击这个按钮后可以根据响应的编码格式自动解码。
  • 7:查找会话
  • 8:保存会话
  • 9:截屏。截屏后,会以会话的方式返回一个截图

判断get和post请求

会话列表属性说明

查看请求头和请求体

3)Fiddler设置过滤(抓取指定服务器地址的数据)

填写服务器地址多个ip之间需要用;隔开,或者每个ip或域名单独写一行;

Hosts 第二个下拉选说明:

No Host Filter 不设置hosts过滤

Hide The Following Hosts 隐藏过滤到的域名

Show Only The Following Hosts 只显示过滤到的域名

Flag The Following Hosts 标记过滤到的域名

类型过滤:图片、CSS、JS这类的静态素材也不需要看的情况下,直接全部过滤掉

.*\.(bmp|css|js|gif|ico|jp?g|png|swf|woff)

在这里插入图片描述

4)开启 Https 抓包监听

Fiddler 默认下,Fiddler不会捕获HTTPS会话,需要你设置下。

from all processes : 抓取所有的 https 程序, 包括 本机 和 手机

from browsers only : 只抓取浏览器中的 https 请求

from non-browsers only : 只抓取除了浏览器之外的所有 https 请求

from remote clients only : 抓取远程的客户端的 https ,可以代表手机

Fiddler是最好用的Web调试工具之一,它能记录所有客户端和服务器的http和https请求,允许你监视,设置断点,甚至修改输入输出数据。

Fiddler包含了一个强大的基于事件脚本的子系统,并且能使用.net语言进行扩展。

你对HTTP 协议越了解, 你就能越掌握Fiddler的使用方法,你越使用Fiddler,就越能帮助你了解HTTP协议。

四、网页爬取案例

案例1:爬取百度翻译接口

python
import requests

base_url = 'https://fanyi.baidu.com/sug'
kw = input('请输入要翻译的英文单词:')
data = {
    'kw': kw
}
headers = {
    # 由于百度翻译没有反扒措施,因此可以不写请求头
    'content-length': str(len(data)),
    'content-type': 'application/x-www-form-urlencoded; charset=UTF-8',
    'referer': '百度翻译-200种语言互译、沟通全世界!',
    'x-requested-with': 'XMLHttpRequest'
}
response = requests.post(base_url, headers=headers, data=data)
# print(response.json())
#结果:{'errno': 0, 'data': [{'k': 'python', 'v': 'n. 蟒; 蚺蛇;'}, {'k': 'pythons', 'v': 'n. 蟒; 蚺蛇;  python的复数;'}]}

#-----------------------------把他变成一行一行
result=''
for i in response.json()['data']:
    result+=i['v']+'\n'
print(kw+'的翻译结果为:')
print(result)

案例2:爬取百度产品列表

 # 1.导包
  import requests
  
  # 2.确定url
  base_url = '百度产品大全'
  
  # 3.发送请求,获取响应
  response = requests.get(base_url)
  
  # 4.查看页面内容,可能出现 乱码
  # print(response.text)
  # print(response.encoding)
  
  # 5.解决乱码
  
  # 方法一:转换成utf-8格式
  # response.encoding='utf-8'
  # print(response.text)
  
  #方法二:解码为utf-8
  with open('index.html', 'w', encoding='utf-8') as fp:
      fp.write(response.content.decode('utf-8'))
      
  print(response.status_code)
  print(response.headers)
  print(type(response.text))
  print(type(response.content))

案例3:爬取百度贴吧前十页(get请求)

# _--------------------爬取百度贴吧搜索某个贴吧的前十页
import requests, os

base_url = '登录_百度贴吧
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36',
}
dirname = './tieba/woman/'


**自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。**

**深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!**

**因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。**
![img](https://img-blog.csdnimg.cn/img_convert/2a16a67509b60c8e4c1d4d3da9562142.png)
![img](https://img-blog.csdnimg.cn/img_convert/0a949a9d004413dff1fc5326da079ecf.png)
![](https://img-blog.csdnimg.cn/img_convert/46506ae54be168b93cf63939786134ca.png)
![](https://img-blog.csdnimg.cn/img_convert/252731a671c1fb70aad5355a2c5eeff0.png)
![](https://img-blog.csdnimg.cn/img_convert/6c361282296f86381401c05e862fe4e9.png) 
![](https://img-blog.csdnimg.cn/img_convert/9f49b566129f47b8a67243c1008edf79.png)

**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上Python开发知识点,真正体系化!**

**由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新**

**如果你觉得这些内容对你有帮助,可以添加V获取:vip1024c (备注Python)**
![img](https://img-blog.csdnimg.cn/img_convert/5b73cf5c314d5fd3438c6d77337e7447.png)

### 一、Python所有方向的学习路线

Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。



![](https://img-blog.csdnimg.cn/img_convert/9f49b566129f47b8a67243c1008edf79.png)



### 二、学习软件

工欲善其事必先利其器。学习Python常用的开发软件都在这里了,给大家节省了很多时间。



![](https://img-blog.csdnimg.cn/img_convert/8c4513c1a906b72cbf93031e6781512b.png)



### 三、入门学习视频



我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了。



![](https://img-blog.csdnimg.cn/afc935d834c5452090670f48eda180e0.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA56iL5bqP5aqb56eD56eD,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center)




**一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**
![img](https://img-blog.csdnimg.cn/img_convert/9e42bde69ca1628fd81ec846847f7149.png)

onvert/8c4513c1a906b72cbf93031e6781512b.png)



### 三、入门学习视频



我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了。



![](https://img-blog.csdnimg.cn/afc935d834c5452090670f48eda180e0.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA56iL5bqP5aqb56eD56eD,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center)




**一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**
[外链图片转存中...(img-3dnUe4vK-1712856571865)]

  • 12
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值