python爬虫——从网站中提取有用的数据

本文介绍了Python网络爬虫的基础知识,包括使用Requests库获取网页内容和BeautifulSoup库解析HTML,提取网页数据。示例代码展示了如何从特定类名和标签中提取信息,以及从维基百科获取特定数据。
摘要由CSDN通过智能技术生成

1 什么是网络爬虫

网络爬虫是指从网站提取数据的技术,该技术可以将非结构化数据转换为结构化数据。

网络爬虫的用途是从网站提取数据,提取的数据可以存储到本地文件并保存在系统中,也可以将其以表格的形式存储到数据库中。网络爬虫使用HTTP或Web浏览器直接访问万维网(WWW)。网络爬虫或机器人抓取网页的过程是一个自动化流程。

抓取网页的过程分为获取网页、提取数据。Web抓取程序可以获取网页,它是网络爬虫的必需组件。在获取网页后,就需要提取网页数据了。我们可以搜索、解析,并将提取的数据保存到表格中,然后重新整理格式。

2 数据提取

本节我们学习数据提取。我们可以使用Python的BeautifulSoup库进行数据提取。这里还需要用到Python库的Requests模块。

运行以下命令以安装Requests和BeautifulSoup库。

$ pip3 install requests

$ pip3 install beautifulsoup4

2.1 Requests库

使用Requests库可以易懂的格式在Python脚本中使用HTTP,这里使用Python中的Requests库获取网页。Requests库包含不同类型的请求,这里使用GET请求。GET请求用于从Web服务器获取信息,使用GET请求可以获取指定网页的HTML内容。每个请求都对应一个状态码,状态码从服务器返回,这些状态码为我们提供了对应请求执行结果的相关信息。以下是部分状态码。

  • 301:表示如果服务器已切换域名或必须更改端点名称,则服务器将重定向到其他端点。
  • 400:表示用户发出了错误请求。
  • 401:表示用户未通过身份验证。
  • 403:表示用户正在尝试访问禁用的资源。
  • 404:表示用户尝试访问的资源在服务器上不可用。

2.2 BeautifulSoup库

BeautifulSoup也是一个Python库,它包含简单的搜索、导航和修改方法。它只是一个工具包,用于从网页中提取所需的数据。

要在脚本中使用Requests和BeautifulSoup模块,必须使用import语句导入这两个模块。现在我们来看一个解析网页的示例程序,这里将解析一个来自百度网站的新闻网页。创建一个脚本,命名为parse_web_page.py,并在其中写入以下代码。

import requests

from bs4 import BeautifulSoup

page_result = requests.get('https://www.news.baidu.com')

parse_obj = BeautifulSoup(page_result.content, 'html.parser')

print(parse_obj)

运行脚本程序,如下所示。

student@ubuntu:~/work$ python3 parse_web_page.py

Output:<!DOCTYPE html>

<html xmlns:fb="http://www.facebook.com/2008/fbml"

xmlns:og="http://ogp.me/ns#">

<head>

<meta charset="utf-8"/>

<meta content="IE=edge" http-equiv="X-UA-Compatible"/>

<meta content="app-id=342792525, app-argument=im
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值