Day02 爬虫学习入门第二天:正则,bs4,xpath,爬虫实战

虽然今天很累,但是其实也没有学很多东西,还是来整理一下,以免忘记,之后会自己去爬一些网站数据…
今天主要学了bs4和xpath,分为这两个部分来整理笔记:

1.bs4解析

  • 为什么需要在爬虫中使用数据解析
    • 就是为了可以实现聚焦爬虫
  • 数据解析的通用原理(解析的数据指挥存在于标签之间或者属性中)
    • html是用来展示数据
    • 原理流程:
      • 标签定位
      • 数据的提取
  • bs4数据解析的解析原理/流程
    • 实例化一个BeautifulSoup的对象,且将等待被解析的数据加载到该对象中
      • 方式1:
        • BeautifulSoup(fp,‘lxml’) #解析本地存储的html文件
      • 方式2:
        • BeautifulSoup(page_text,‘lxml’) #解析互联网上请求到的页面数据
    • 调用BeautifulSoup对象中的相关方法和属性进行标签定位和数据的提取
      • 标签定位
        • soup.tagName:返回第一次出现的tagName标签
        • 属性定位:soup.find(‘tagName’,attrName=‘value’)
        • findALL和find的用法一样,但是返回值不同
        • 选择器定位:select(‘selector’)
      • 数据的提取
        • 提取标签中存在的数据
          • .string:取出标签直系的文本内容
          • .text:取出标签中所有的文本内容
        • 提取标签属性中存储的数据
          • tagName[‘attrName’]
  • 环境的安装:
    • pip install bs4
    • pip install lxml

直接用一个例子来看,使用bs4爬取某网站上面三国演义的内容,需要添加headers

### 使用bs4解析三国演义的内容 
import requests
url = 'http://shicimingju.com/book/sanguoyanyi.html'
page_text = requests.get(url,headers=headers).text #首页的页面源码数据
fp = open('./sanguo.txt','w',encoding='utf-8')
#数据解析(章节标题,详情页的url)
soup = BeautifulSoup(page_text,'lxml')
#定位到了所有标题对应的a标签
a_list = soup.select('.book-mulu > ul > li >a') # >表示一个层级
for a in a_list:
    title = a.string
    detail_url = 'http://shicimingju.com'+a['href']
    #解析提取章节内容
    page_text_detail = requests.get(url=detail_url,headers=headers).text
    #解析详情页中的章节内容
    soup = BeautifulSoup(page_text_detail,'lxml')
    content = soup.find('div',class_='chapter_content').text
    #写入文件
    fp.write(title+':'+content+'\n')
    print(title,'下载成功')

2.xpath解析

  • html标签结构
    • 是一个树状的结构
  • xpath解析原理
    • 实例化一个etree对象,且将被解析的数据加载到该对象中
      • 解析本地存储的html文档:
        • etree.parse(‘fileName’)
      • 解析网上爬取的html数据:
        • etree.parse(page_text)
    • 使用etree对象中的xpath方法结合不同的xpath表达式实现标签定位和数据提取
      • 标签定位
        • 最左侧的/:必须要从根标签开始逐层的定位目标标签
        • 非最左侧的/:表示一个层级
        • 非最左侧的//:表示多个层级
        • 最左侧的//:可以从任意位置定义目标标签
        • 属性定位://tagName[@attrName=‘value’]
        • 索引定位://tagName[index],index索引从1开始
        • 模糊匹配
          • //div[contains(@class,“ng”)] :定位到class属性中包含ng的div标签
          • //div[starts-with[@class,“ta”]] :定位到clss属性值中是以ta开头的div标签
      • 数据提取
        • 取标签中的数据
          • /text():直系文本内容
          • //text():所有的文本内容
        • 取属性中的数据
          • tagName/@attrName

下面介绍爬取图片数据和图片名称并将其保存到本地的例子,需要添加headers

import requests
import os 
dirName = 'img'
# if os.path.exists(dirName):
#     os.mkdir(dirName)
url = 'http://pic.netbian.com/4kdongman/index_%d.html'
for page in range(1,6):
    if page == 1:
        new_url = 'http://pic.netbian.com/4kdongman/'
    else:
        new_url = format(url%page) #表示非第一页的url
    response = requests.get(new_url,headers=headers)
    response.encoding='gbk'
    page_text = response.text
#     page_text = requests.get(new_url,headers=headers).text
    #数据解析:图片地址和图片名称
    tree = etree.HTML(page_text)
    #定位到了所有的li标签
    li_list = tree.xpath('//div[@class="slist"]/ul/li')
    for li in li_list:
        img_src = 'http://pic.netbian.com'+li.xpath('./a/img/@src')[0] #局部的数据解析,./表示的就是xpath调用者对应的标签
        img_name = li.xpath('./a/img/@alt')[0]+'.jpg'
#         print(img_src,img_name)
        img_data = requests.get(img_src,headers=headers).content
        filePath = dirName+'/'+img_name
        with open(filePath,'wb') as fp:
            fp.write(img_data)
        print(img_name,'下载成功')

今天就先写这么多了…还没学tableau,/(ㄒoㄒ)/~~,要加油呀
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值