json里面的list数据取不出来_爬虫爬取百度百科数据

43bf2448a9b94de191e8a76a1436e378.png

以前段时间《青春有你2》为例,我们使用Python来爬取百度百科中《青春有你2》所有参赛选手的信息。

什么是爬虫?

为了获取大量的互联网数据,我们自然想到使用爬虫代替我们完成这些重复的工作。

爬虫的过程,就是模仿浏览器的行为,往目标站点发送请求,接收服务器的响应数据,提取需要的信息,并进行保存的过程。

Python为爬虫的实现提供了工具:requests模块、BeautifulSoup库

接下来我们就会使用这些工具来获取我们想要的信息。

任务描述

本次实践使用Python来爬取百度百科中《青春有你2》所有参赛选手的信息。

数据获取:https://baike.baidu.com/item/青春有你第二季

f78627497dcdd3415db46a7f378c77f1.png

34de0c2a492e8928ac14640c005f4dae.png

上网的全过程

普通用户:

打开浏览器 --> 往目标站点发送请求 --> 接收响应数据 --> 渲染到页面上。

爬虫程序:

模拟浏览器 --> 往目标站点发送请求 --> 接收响应数据 --> 提取有用的数据 --> 保存到本地/数据库。

爬虫的过程

1.发送请求(requests模块)

2.获取响应数据(服务器返回)

3.解析并提取数据(BeautifulSoup查找或者re正则)

4.保存数据

模块简介

request模块

requests是python实现的简单易用的HTTP库,官网地址:http://cn.python-requests.org/zh_CN/latest/

requests.get(url)可以发送一个http get请求,返回服务器响应内容。

BeautifulSoup库

BeautifulSoup 是一个可以从HTML或XML文件中提取数据的Python库。网址:https://beautifulsoup.readthedocs.io/zh_CN/v4.4.0/

BeautifulSoup支持Python标准库中的HTML解析器,还支持一些第三方的解析器,其中一个是 lxml。

BeautifulSoup(markup, "html.parser")或者BeautifulSoup(markup, "lxml"),推荐使用lxml作为解析器,因为效率更高。

第一步

具体来说,这一步是爬取百度百科中《青春有你2》中所有参赛选手信息,返回页面数据

也就是将如图的多有参赛学员信息爬取并返回。

f78627497dcdd3415db46a7f378c77f1.png
import 

第二步

对爬取的页面数据进行解析,并保存为JSON文件。

那么我们在这一步就可以获得如图所有人的具体信息了~~

38f889662cce647a983096b227dce3f9.png
def 

第三步

爬取每个选手的图片,并进行保存。

这一步我们就可以获得所有小姐姐的美照了。一共下载482张照片。

具体的思路是从上一步得到的个人信息中进入每个人的百度百科,然后再进入相册,下载照片并保存。

7db92456bfae09752a2a3dba79952230.png

fe0037844d6a9676c0706060b4ff223e.png
def 

第四步

打印爬取的所有图片的路径

def 

第五步

主程序。

看着满屏的成功和新增的文件夹,成就感油然而生。

8c999d4eda027fac9fca69ca4c696bda.png

b4ae11ab6fc75a44677be7015f34e5e1.png
if 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值