虽然今天很累,但是其实也没有学很多东西,还是来整理一下,以免忘记,之后会自己去爬一些网站数据…
今天主要学了bs4和xpath,分为这两个部分来整理笔记:
1.bs4解析
- 为什么需要在爬虫中使用数据解析
- 就是为了可以实现聚焦爬虫
- 数据解析的通用原理(解析的数据指挥存在于标签之间或者属性中)
- html是用来展示数据
- 原理流程:
- 标签定位
- 数据的提取
- bs4数据解析的解析原理/流程
- 实例化一个BeautifulSoup的对象,且将等待被解析的数据加载到该对象中
- 方式1:
- BeautifulSoup(fp,‘lxml’) #解析本地存储的html文件
- 方式2:
- BeautifulSoup(page_text,‘lxml’) #解析互联网上请求到的页面数据
- 方式1:
- 调用BeautifulSoup对象中的相关方法和属性进行标签定位和数据的提取
- 标签定位
- soup.tagName:返回第一次出现的tagName标签
- 属性定位:soup.find(‘tagName’,attrName=‘value’)
- findALL和find的用法一样,但是返回值不同
- 选择器定位:select(‘selector’)
- 数据的提取
- 提取标签中存在的数据
- .string:取出标签直系的文本内容
- .text:取出标签中所有的文本内容
- 提取标签属性中存储的数据
- tagName[‘attrName’]
- 提取标签中存在的数据
- 标签定位
- 实例化一个BeautifulSoup的对象,且将等待被解析的数据加载到该对象中
- 环境的安装:
- pip install bs4
- pip install lxml
直接用一个例子来看,使用bs4爬取某网站上面三国演义的内容,需要添加headers
### 使用bs4解析三国演义的内容
import requests
url = 'http://shicimingju.com/book/sanguoyanyi.html'
page_text = requests.get(url,headers=headers).text #首页的页面源码数据
fp = open('./sanguo.txt','w'