Python网络爬虫与信息提取(二):网络爬虫之提取

此系列笔记来源于
中国大学MOOC-北京理工大学-嵩天老师的Python系列课程

转载自:http://www.jianshu.com/p/7b950b8a5966


4. Beautiful Soup库入门

Beautiful Soup库可对HTML/XML格式进行解析并提取相关信息

  • 安装:管理员方式打开CMD-输入pip install beautifulsoup4
    小测:

    获得链接的HTML代码内容


    使用beautifulsoup解析
  • Beautiful Soup库的基本元素
    Beautiful Soup库是解析/遍历/维护"标签熟"的功能库,引用方式:
    from bs4 import BeautifulSoup
    import bs4
    Beautiful Soup库的4种解析器:


    Beautiful Soup类的基本元素:

    bs类基本元素
    • Tag标签


      任何存在于HTML语法中的标签都可用**soup.<tag>访问获得,存在多个取第一个
    • Tag的name


      每个<tag>有自己的名字,通过<tag>.name获取,字符串类型
    • Tag的attrs

    • Tag的NavigableString

    • Tag的Comment

  • 基于bs4库的HTML内容遍历方法

    三种遍历方式
    • 下行遍历

      属性


      遍历
    • 上行遍历

      属性


      遍历
    • 平行遍历

      属性


      遍历
  • 基于bs4库的HTML格式输出
    使用prettify()方法,为HTML文本<>及其内容增加''\n'并且可用于标签/方法

5.信息组织与提取方法

  • 信息标记的三种形式及比较
    XML(eXtensible Markup Language)是最早的通用信息标记语言,可扩展性好,但繁琐;标签由名字和属性构成,形式有:
    <name>...</name>
    <name />
    <!--   -->
    JSON(JavaScript Objection Notation)适合程序处理,较XML简洁;有类型的键值对,形式有:
    "key":"value"
    "key":["value1","value2"]
    "key":{"subkey":"subvalue"}
    YAML(YAML Ain't Markup Language)文本信息比例最高,可读性好;无类型的键值对,形式有:
    key:value
    key:#Comment
    -value1
    -value2
    key:
      subkey:subvalue
  • 信息提取的一般方法
    • 完整解析信息的标记形式再提取关键信息,需要标记解析器;优点是解析准确,缺点是提取繁琐且慢
    • 无视标记形式,直接搜索关键信息;优点是提取速度快,缺点是准确性与信息内容相关
    • 结合两种方法,需要标记解析器和文本搜索功能
  • 基于bs4库的HTML内容查找方法
    <>.find_all(name,attrs,recursive,string,**kwargs)`
    #返回一个列表类型,存储查找的结果
    #name:对标签名称的检索字符串
    #attrs:对标签属性值的检索字符串,可标注属性检索
    #recursive:是否对子孙全部搜索,默认True
    #string:对字符串域进行检索
    由find_all()扩展的七个方法:

    扩展方法

6.实例一:中国大学排名爬虫

步骤1:从网络上获取大学排名网页内容getHTMLText()
步骤2:提取网页内容中信息到合适的数据结构fillUnivList()
步骤3:利用数据结构展示并输出结果printUnivLise()

import requests
from bs4 import BeautifulSoup
import bs4

def getHTMLText(url):
    try:
        r = requests.get(url,timeout=30)
        r.raise_for_status()
        r.encoding=r.apparent_encoding
        return r.text
    except:
        return "error" 

def fillUnivList(ulist,html):
    soup=BeautifulSoup(html,"html.parser")
    for tr in soup.find('tbody').children:
        if isinstance(tr,bs4.element.Tag):
            tds = tr('td')
            ulist.append([tds[0].string,tds[1].string,tds[3].string])

def printUnivList(ulist,num):
    tplt="{0:^10}\t{1:{3}^10}\t{2:^10}"
    print(tplt.format("排名","学校名称","总分",chr(12288)))
    for i in range(num):
        u=ulist[i]
        print(tplt.format(u[0],u[1],u[2],chr(12288)))

def main():
    uinfo = []
    url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'
    html = getHTMLText(url)
    fillUnivList(uinfo,html)
    printUnivList(uinfo,20)
main()
  • 0
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值