python网络爬虫与信息提取——5.信息组织与提取方法

1.信息标记的三种形式

(1)XML(eXtensible Markup Language)可扩展标记语音

<name> … </name>有内容的标签
<name />无内容的标签
<!‐‐ ‐‐>注释

(2)JSON(JavsScript Object Notation)有类型的键值对 key:value

“key” : “value”
“key” : [“value1”, “value2”]多值用[,]组织
“key” : {“subkey” : “subvalue”}键值对嵌套用{,}

(3)YAML(YAML Ain’t Markup Language)无类型键值对 key:value

缩进表达所属关系

‐ 表达并列关系

| 表达整块数据 # 表示注释

key : value
key : #Comment
‐value1
‐value2
key :
    subkey : subvalue

2.比较

XML

最早的通用信息标记语言,可扩展性好,但繁琐

Internet上的信息交互与传递

JSON

信息有类型,适合程序处理(js),较XML简洁

移动应用云端和节点的信息通信,无注释

YAML

信息无类型,文本信息比例最高,可读性好

各类系统的配置文件,有注释易读

3.信息提取的一般方法

方法一:完整解析信息的标记形式,再提取关键信息

优点:信息解析准确
缺点:提取过程繁琐,速度慢

方法二:无视标记形式,直接搜索关键信息

优点:提取过程简洁,速度较快
缺点:提取结果准确性与信息内容相关

融合方法:结合形式解析与搜索方法,提取关键信息

需要标记解析器及文本查找函数

4.基于bs4库的html内容查找方法

<>.find_all(name, attrs, recursive, string, **kwargs)
返回一个列表类型,存储查找的结果

 ∙ name : 对标签名称的检索字符串

∙ attrs: 对标签属性值的检索字符串,可标注属性检索
∙ recursive: 是否对子孙全部检索,默认True
∙ string: <>…</>中字符串区域的检索字符串

<tag>(..) 等价于 <tag>.find_all(..)
soup(..)  等价于 soup.find_all(..)

扩展方法:

<>.find() 搜索且只返回一个结果,同.find_all()参数
<>.find_parents() 在先辈节点中搜索,返回列表类型,同.find_all()参数
<>.find_parent() 在先辈节点中返回一个结果,同.find()参数
<>.find_next_siblings() 在后续平行节点中搜索,返回列表类型,同.find_all()参数
<>.find_next_sibling() 在后续平行节点中返回一个结果,同.find()参数
<>.find_previous_siblings() 在前序平行节点中搜索,返回列表类型,同.find_all()参数
<>.find_previous_sibling() 在前序平行节点中返回一个结果,同.find()参数

4.中国大学排名爬虫实例

  1. #CrawUnivRankingB.py
  2. import requests
  3. from bs4 import BeautifulSoup
  4. import bs4
  5.  
  6. def getHTMLText(url):
  7.     try:
  8.         r = requests.get(url, timeout=30)
  9.         r.raise_for_status()
  10.         r.encoding = r.apparent_encoding
  11.         return r.text
  12.     except:
  13.         return ""
  14.  
  15. def fillUnivList(ulist, html):
  16.     soup = BeautifulSoup(html, "html.parser")
  17.     for tr in soup.find('tbody').children:
  18.         if isinstance(tr, bs4.element.Tag):
  19.             tds = tr('td')
  20.             ulist.append([tds[0].string, tds[1].string, tds[3].string])
  21.  
  22. def printUnivList(ulist, num):
  23.     tplt = "{0:^10}\t{1:{3}^10}\t{2:^10}"
  24.     print(tplt.format("排名","学校名称","总分",chr(12288)))
  25.     for i in range(num):
  26.         u=ulist[i]
  27.         print(tplt.format(u[0],u[1],u[2],chr(12288)))
  28.      
  29. def main():
  30.     uinfo = []
  31.     url = 'https://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'
  32.     html = getHTMLText(url)
  33.     fillUnivList(uinfo, html)
  34.     printUnivList(uinfo, 20) # 20 univs
  35. main()

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

WY_记录

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值