python网络爬虫与信息提取嵩天_Python网络爬虫与信息提取(二):网络爬虫之提取...

此系列笔记来源于

中国大学MOOC-北京理工大学-嵩天老师的Python系列课程

4. Beautiful Soup库入门

Beautiful Soup库可对HTML/XML格式进行解析并提取相关信息

安装:管理员方式打开CMD-输入pip install beautifulsoup4

小测:

获得链接的HTML代码内容

使用beautifulsoup解析

Beautiful Soup库的基本元素

Beautiful Soup库是解析/遍历/维护”标签熟”的功能库,引用方式:

from bs4 import BeautifulSoup

import bs4

Beautiful Soup库的4种解析器:

Beautiful Soup类的基本元素:

bs类基本元素

Tag标签

任何存在于HTML语法中的标签都可用**soup.访问获得,存在多个取第一个

Tag的name

每个有自己的名字,通过.name获取,字符串类型

Tag的attrs

Tag的NavigableString

Tag的Comment

基于bs4库的HTML内容遍历方法

三种遍历方式

下行遍历

属性

遍历

上行遍历

属性

遍历

平行遍历

属性

遍历

基于bs4库的HTML格式输出

使用prettify()方法,为HTML文本<>及其内容增加”\n’并且可用于标签/方法

5.信息组织与提取方法

信息标记的三种形式及比较

XML(eXtensible Markup Language)是最早的通用信息标记语言,可扩展性好,但繁琐;标签由名字和属性构成,形式有:

...

JSON(JavaScript Objection Notation)适合程序处理,较XML简洁;有类型的键值对,形式有:

"key":"value"

"key":["value1","value2"]

"key":{"subkey":"subvalue"}

YAML(YAML Ain’t Markup Language)文本信息比例最高,可读性好;无类型的键值对,形式有:

key:value

key:#Comment

-value1

-value2

key:

subkey:subvalue

信息提取的一般方法

完整解析信息的标记形式再提取关键信息,需要标记解析器;优点是解析准确,缺点是提取繁琐且慢

无视标记形式,直接搜索关键信息;优点是提取速度快,缺点是准确性与信息内容相关

结合两种方法,需要标记解析器和文本搜索功能

基于bs4库的HTML内容查找方法

<>.find_all(name,attrs,recursive,string,**kwargs)`

#返回一个列表类型,存储查找的结果

#name:对标签名称的检索字符串

#attrs:对标签属性值的检索字符串,可标注属性检索

#recursive:是否对子孙全部搜索,默认True

#string:对字符串域进行检索

由find_all()扩展的七个方法:

扩展方法

6.实例一:中国大学排名爬虫

步骤1:从网络上获取大学排名网页内容getHTMLText()

步骤2:提取网页内容中信息到合适的数据结构fillUnivList()

步骤3:利用数据结构展示并输出结果printUnivLise()

import requests

from bs4 import BeautifulSoup

import bs4

def getHTMLText(url):

try:

r = requests.get(url,timeout=30)

r.raise_for_status()

r.encoding=r.apparent_encoding

return r.text

except:

return "error"

def fillUnivList(ulist,html):

soup=BeautifulSoup(html,"html.parser")

for tr in soup.find('tbody').children:

if isinstance(tr,bs4.element.Tag):

tds = tr('td')

ulist.append([tds[0].string,tds[1].string,tds[3].string])

def printUnivList(ulist,num):

tplt="{0:^10}\t{1:{3}^10}\t{2:^10}"

print(tplt.format("排名","学校名称","总分",chr(12288)))

for i in range(num):

u=ulist[i]

print(tplt.format(u[0],u[1],u[2],chr(12288)))

def main():

uinfo = []

url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'

html = getHTMLText(url)

fillUnivList(uinfo,html)

printUnivList(uinfo,20)

main()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值