第二章 页面爬取应用-缺失数据处理、图片下载、懒加载 2021-09-14

爬虫系列总目录

本章节介绍爬虫中使用的基础库用于选择,过滤页面信息。包括requests,bs4,xpath,正则表达式re,json 等内容,能够实现对简单页面的获取。
第二章 爬虫基础库-requests/bs4
第二章 正则表达式
第二章 简单网页的爬取与Xpath、Json使用
第二章 页面爬取应用-缺失数据处理、图片下载、懒加载



一、缺失数据处理的思路

获取对应关系的标签由于缺失导致数量不匹配,取上层元素进行变量。然后取出当前元素下的子标签。

import requests
from lxml import etree


def get_response(url, headers=None):
    """获取段子网的响应"""
    _headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.63 Safari/537.36'
    }
    if headers:
       _headers = headers
    res = requests.get(url, headers=_headers)
    return res.content.decode()   # 如果当前网站不是utf8的编码 需要在括号内指定对应的编码


def main():
    """
    xpath 练习使用,获取页面数据
    """
    url = 'https://36kr.com/'
    response = get_response(url)
    contents = etree.HTML(response, etree.HTMLParser())

    # 获取所有的父节点
    total_data = contents.xpath('//*/div[@class="article-item-info clearfloat"]')
    for each_data in total_data:
        # 查询父节点下面的的标签
        titles = each_data.xpath("./p/a")
        if len(titles) != 0:
            res_title = each_data.text
        authors = each_data.xpath("./div/a")
        if len(authors) != 0:
            author = authors[0].text

二、图片下载

  • 解析原网页,分析页面,获取页面的图片的src 下载路径,请求图片保存文件。
# 根据返回内容的编码修改编码
response.encoding = response.apparent_encoding

代码如下(示例):

def save_img(path, img_url, img_name):
    _headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.63 Safari/537.36'
    }
    bool_ = os.path.exists(path)
    if not bool_:
        os.makedirs(path)
    path = os.path.join(path, img_name + '.jpg')

    with open(path, 'wb') as f:
        # 请求图片的数据
        img_response = requests.get(img_url, headers=_headers)
        # 保存数据
        f.write(img_response.content)
        print('{}.jpg已下载完成'.format(img_name))

三、 图片懒加载介绍

3.1 图片懒加载介绍

一张图片就是一个标签,浏览器是否发起请求图片是根据的src属性,所以实懒加载的关键就是,在图片没有进入可视区域时,先不给的src赋值,这样浏览器就不会发送请求了,等到图片进入可视区域再给src赋值。

3.2 懒加载解决办法

这里网页中img 标签中使用非src 的src2, 绕过浏览器编译渲染过程。分析页面后,获取src2 即可。

    src =html.xpath("//div[@id='container']/div/div/a/img/@src")
    src =html.xpath("//div[@id='container']/div/div/a/img/@src2")
    img_name =html.xpath("//div[@id='container']/div/div/a/img/@alt")
    src.extend(src2)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值