爬虫实战---正则表达式提取信息

本文介绍了如何使用正则表达式在爬虫中提取网页信息。通过re.compile()建立匹配规则,re.findall()获取所有匹配结果的列表,以及re.split()删除特定字符。还提及了运用面向对象编程,利用requests库请求服务器数据(爬取了506页),并使用open函数进行文件的读写操作。
摘要由CSDN通过智能技术生成
  1. 正则提取网页时,常用的函数有:
    -re.compile() #建立匹配规则
    -re.findall() #返回的符合匹配规则的所有结果的一个列表
    -re.split() #删除满足条件的字符或特殊符号

  2. 实例所采用的知识的:
    -采用面向对象的方法
    -利用requests对服务器发出请求(一共爬取506页)
    -利用正则表达式提取网页信息
    -open函数进行读写操作

import requests
import re
class Spider:
    #初始化参数
    def __init__(self,page):
        self.url='http://www.neihan8.com/article/list_5_{}.html'.format(page)
        self.headers={
            "User-Agent"
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值