爬虫爬取网页上的表格

最近有个爬虫的需求,然后在做爬虫的过程中涉及到要去爬取网页中的表格内容,鉴于直接采用常规方法有点傻,于是记录了如何直接提取表格内的方法在此,以便后续再回顾。

from bs4 import BeautifulSoup
import urllib
import re
import config  #自己定义的配置文件

def spider_data(url):
    head = {}
    head['User-Agent'] = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.109 Safari/537.36'
    data=urllib.request.Request(url=url,headers=head)
    file= urllib.request.urlopen(data)
    res=file.read().decode('utf8','ignore')
    soup=BeautifulSoup(res,'html.parser')
    return soup
  
def split_table(soup):  
    res= []
    if soup.tbody !=None:

        a = soup.tbody.children
        reg = re.compile(("<[^>]*>"))  # 清除html标签,提取文本,这里查找的是介于'<>'之间的表达式
        row0 = []  # row0用于保存上一行的信息
        flag = True  # row0未初始化
        
  • 4
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值