Python3-爬取页面元素的几种方法

本文介绍了Python3中四种爬取网页元素的方法:使用XPath、正则表达式、BeautifulSoup的find和find_all以及select方法。提供了匹配URL的示例和相关资源链接。
摘要由CSDN通过智能技术生成

方法一:xpath

from lxml import etree
import requests
from requests import exceptions

def get_response(url, headers=None, timeout=None):

    """"
    当条件为假,断言失败
    assert response.status_code == 200'请求报错,请求状态码为: %s'%str(response.status_code)
    """
    try:
        response = requests.get(url, headers=headers, timeout=timeout)
    except exceptions.Timeout as e:
        response = None
        raise e
    except exceptions.HTTPError as e:
        response = None
        raise e
    except exceptions.ConnectTimeout as e:
        response = None
        raise e
    except exceptions.ReadTimeout as e:
        response = None
        raise e
    except exceptions.ProxyError as e:
        response = None
        raise e
    except Exception as e:
        response = None
        raise e
    finally:
        return response

de
  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值