python 中re/beautiful/lxml/css爬取效率对比。

博客内容对比了Python中使用正则表达式(re)、BeautifulSoup、lxml和CSS选择器进行网页解析的效率。结果显示,re的速度显著领先,而BeautifulSoup的效率最低,接近re的200-300倍。lxml和CSS选择器的性能相近,但均优于BeautifulSoup。
摘要由CSDN通过智能技术生成

主要是为了复习bs与学习css,发现一段时间不用,bs基本忘了差不多了,主要也是lxml相对好用太多了,且scrapy默认支持xpath与css也是原因之一。上代码:

#!/usr/bin/env python
# -*- encoding: utf-8 -*-
"""
@File    : test.py.py
@Time    : 2019/8/24 13:41
@Author  : Sound_of_Silence
"""

import requests
import re
import time
from lxml.html import etree
from bs4 import BeautifulSoup


def get_text(url):
    try:
        headers = {
   
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'}
        r = requests.get(url, headers=headers)
        r.encoding = 'gb2312'
        return r.text
    exc
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值