提取网页中的href 爬虫_网络爬虫——从网站中提取有用的数据

本文介绍了网络爬虫的概念和技术,重点讲述了使用Python的BeautifulSoup库从网站提取数据。通过实例展示了如何利用Requests库获取网页,再用BeautifulSoup解析HTML,提取所需内容。还讲解了如何从特定类和标签中提取数据,并给出了从维基百科抓取信息的例子。
摘要由CSDN通过智能技术生成

本章我们将学习网络爬虫,其中包括学习Python中的BeautifulSoup库,它用于从网站中提取数据。

本章包含以下主题。什么是网络爬虫。

数据提取。

从维基百科网站提取信息。

1 什么是网络爬虫

网络爬虫是指从网站提取数据的技术,该技术可以将非结构化数据转换为结构化数据。

网络爬虫的用途是从网站提取数据,提取的数据可以存储到本地文件并保存在系统中,也可以将其以表格的形式存储到数据库中。网络爬虫使用HTTP或Web浏览器直接访问万维网(WWW)。网络爬虫或机器人抓取网页的过程是一个自动化流程。

抓取网页的过程分为获取网页、提取数据。Web抓取程序可以获取网页,它是网络爬虫的必需组件。在获取网页后,就需要提取网页数据了。我们可以搜索、解析,并将提取的数据保存到表格中,然后重新整理格式。

2 数据提取

本节我们学习数据提取。我们可以使用Python的BeautifulSoup库进行数据提取。这里还需要用到Python库的Requests模块。

运行以下命令以安装Requests和BeautifulSoup库。

$ pip3 install requests

$ pip3 install beautifulsoup4

2.1 Requests库

使用Requests库可以易懂的格式在Python脚本中使用HTTP,这里使用Python中的Requests库获取网页。Requests库包含不同类型的请求,这里使用GET请求。GET请求用于从Web服务器获取信息,使用GET请求可以获取指定网页的HTML内容。每个请求都对应一个状态码,状态码从服务器返回,这些状态码为我们提供了对应请求执行结果的相关信息。以下是部分状态码。200:表示一切正常并返回结果(如果有)。

301:表示如果服务器已切换域名或必须更改端点名称,则服务器将重定向到其他端点。

400:表示用户发出了错误请求。

401:表示用户未通过身份验证。

403:表示用户正在尝试访问禁用的资源。

404:表示用户尝试访问的资源在服务器上不可用。

2.2 BeautifulSoup库

BeautifulSoup也是一个Python库,它包含简单的搜索、导航和修改方法。它只是一个工具包,用于从网页中提取所需的数据。

要在脚本中使用Requests和BeautifulSoup模块,必须使用import语句导入这两个模块。现在我们来看一个解析网页的示例程序,这里将解析一个来自百度网站的新闻网页。创建一个脚本,命名为parse_web_page.py,并在其中写入以下代码。

import requests

from bs4 import BeautifulSoup

page_result = requests.get('https://www.news.baidu.com')

parse_obj = BeautifulSoup(page_result.content, 'html.parser')

print(parse_obj)

运行脚本程序,如下所示。

student@ubuntu:~/work$ python3 parse_web_page.py

Output:

xmlns:og="http://ogp.me/ns#">

name="apple-itunes-app"/>

Date().getTime(),pt:'java'};

if (typeof uet == 'function') {

uet("bb", "LoadTitle", {wb: 1});

}

new Date().getTime(); })(IMDbTimer);

Top News - IMDb

new Date().getTime(); })(IMDbTimer);

if (typeof uet == 'function') {

uet("be", "LoadTitle", {wb: 1});

}

if (typeof uex =

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值