Python网络爬虫与信息提取笔记(续篇)(文末附教学视频)只供教学讲解,请勿对有robots协议的网站(如淘宝网)造成骚扰

接上篇博客:Python网络爬虫与信息提取笔记(文末附教学视频)

14:基于bs4库的HTML内容遍历方法

标签树的下行遍历:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
用len(soup.body.contents)返回body标签的儿子节点的数量。
用soup.body.contents[1]来获取第一个元素
在这里插入图片描述
标签树的下行遍历代码:
在这里插入图片描述
标签树的上行遍历:
.parent
.parents

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在遍历时,会遍历到soup标签,但soup标签没有父类,故使用
if parent is None: 来做一个区分。
标签树的平行遍历:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

15:基于bs4库的HTML格式化和编码

如何能够让html页面更加友好的显示:在bs4库中提供了一个方法:prettify()方法,prettify()能够为每一个标签后添加一个换行:
在这里插入图片描述
打印一下soup.prettify():
在这里插入图片描述
编码
bs4库将任何读入的HTML文件或字符串都转换成了utf-8编码。
在这里插入图片描述
单元小结:
在这里插入图片描述

16:信息标记的三种形式

标记后的信息可形成信息组织结构,增加了信息维度
标记后的信息可用于通信、存储和展示
标记的结构与信息一样具有重要价值
标记后的信息更利于程序理解和运用
HTML的信息标记:
HTML通过预定义的<>…</>标签形式组织不同类型的信息。
现在国际公认的信息标记的三种形式为:XML、JSON、YAML
XML::当<>…</>之间有内容时,我们用两个<>…</>来包含,当没有内容时,用一个就可以。<>中也可以包括注释。
在这里插入图片描述
JSON:JavaScript语言中对面向对象语言的一种表达形式。
简单讲JSON时有类型的键值对 key: value 构建的信息表达方式,如对信息类型的定义叫键key,对信息值的描述叫值value
“name”: “经贸大学”
"name"是key,"经贸大学"是值
当一个键对应多个值时:
在这里插入图片描述
在这里插入图片描述
YAML:
无类型键值对key : value
name : 经贸大学
用缩进表示所属关系:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
text: | #学校介绍
文本内容…
都属于text的范畴。
在这里插入图片描述
在这里插入图片描述

17:信息提取的一般方法

信息提取指从标记后的信息中提取所关注的内容。
**方法一:**完整解析信息的标记形式,再提取关键信息。
简单说,我们用标记解析器去解析XML、JSON、YAML格式,然后将其中所需要的信息提取出来。比如bs4库提供了对标签树的遍历,我们需要什么信息,去遍历这棵树就可以了。这种方法优点是:信息解析准确。缺点是:提取过程繁琐,速度慢,也需要对整个文件的信息组织形式有个清楚的认识和理解。
**方法二:**无视标记形式,直接搜索关键信息。类似于word查找文本。
对信息的文本利用查找函数查找即可。优点是:提取过程简介,速度较快。缺点是:提取结果准确性与信息内容相关。
从实际使用中最好的方法是一种融合方法。
融合方法
在这里插入图片描述
实例
提取HTML中所有URL链接
思路:(1)搜索到所有的< a>标签
(2)解析< a>标签格式,提取href后的链接内容
在这里插入图片描述

18:基于bs4库的HTML内容查找方法

回顾demo.html
在这里插入图片描述
Beautiful Soup库提供了一个方法:
<>.find_all(name, attrs, recursive, string, **kwargs)
可以在soup的变量中查找里边的信息,find_all()方法返回一个列表类型,存储查找的结果。
name:对标签名称的检索字符串
在这里插入图片描述
在这里插入图片描述
当传入参数为True时,find_all()返回所有标签。用tag.name来显示标签名称。
在这里插入图片描述
若只想要显示以b开头的标签,如< b>< body>等。需要用到正则表达式。

import re
import requests
from bs4 import BeautifulSoup
r = requests.get("https://python123.io/ws/demo.html")
demo = r.text
soup = BeautifulSoup(demo, "html.parser")
for tag in soup.find_all(re.compile('b'))
	print(tag.name)

# 输出为:
# body
# b

attrs:对标签属性值的检索字符串,可标注属性检索。
在这里插入图片描述
recursive
在这里插入图片描述
string
在这里插入图片描述
简写形式:
在这里插入图片描述
扩展方法:
在这里插入图片描述

19:中国大学排名定向爬虫实例

功能描述:
输入:大学排名url链接
输出:大学排名信息的屏幕输出(排名,大学名称,总分)
技术路线:requests-bs4(无法获取动态脚本信息)
结构设计:
在这里插入图片描述
在这里插入图片描述
爬取中国最好大学排名:
打开网页,先看robots.txt,404说明不限制爬虫爬取
查看源代码:
在这里插入图片描述
发现所有的大学信息在< tbody>标签中,每一个大学的信息又在< tr>标签中存储。
每所大学的排名、名称,分数都在< td>标签中存储。
使用下述代码爬取:

import requests
from bs4 import BeautifulSoup
import bs4
def getHTMLText(url):
	"""
	getHtmlText(url)在main()函数调用时,传入url参数,对url进行requests.get()请		求,判断请求的状态码,将检测内容推断出的编码格式赋值给r.encoding,返回r.text,即html的内容
	"""
    try:
        r = requests.get(url)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return ""

def fillUnivList(ulist, html):
	"""
	fillUnivList(ulist, html)函数在main()函数调用时,将实参变量uinfo = [],和html传入,使用类产生soup对象用于存储使用'html.parser'解析器解析后的html变量的内容。
	"""
    soup = BeautifulSoup(html, "html.parser")
    # find()方法搜索且只返回一个结果,且是字符串类型
    # 因为只有一个< tbody>标签,所以用find(),不用find_all()方法
    # 使用变量tr遍历tbody标签的子标签:所有的tr标签
    # 但因为子节点的遍历中可能存在NavigableString类型,代码下方图一
    # 这里不懂参考14单元下的平行遍历下的代码
    # 故用if isinstance(tr, bs4.element.Tag)筛选tag类型的tr变量
    for tr in soup.find('tbody').children:
        print(tr)
        if isinstance(tr, bs4.element.Tag):
        	# 这里tr是<class 'bs4.element.Tag'>类型的变量
        	# tr('td')是tr.find_all('td')的简写形式,返回一个列表,参照图二
            tds = tr('td')
            print(tds)
            # 将第一个< td>标签的内容,第二个,第四个td标签的内容作为一个列表
            # 写入到列表ulist中
            ulist.append([tds[0].string, tds[1].string, tds[3].string])


def printUnivList(ulist, num):
	# 格式化输出
    print("{:^10}\t{:^6}\t{:^10}".format("排名", "学校名称", "总分"))
    for i in range(num):
    	将ulist中的每一个列表遍历一遍
        u = ulist[i]
        print(u)
        # 输出列表u中的信息
        print("{:^10}\t{:^6}\t{:^10}".format(u[0], u[1], u[2]))

def main():
    uinfo = []
    url = "http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html"
    html = getHTMLText(url)
    fillUnivList(uinfo, html)
    # 传入参数20,说明只输出前20所学校
    printUnivList(uinfo, 20)

main()


图一:
在这里插入图片描述
图二:
在这里插入图片描述
中英文字符何合用导致对齐问题。
在这里插入图片描述

在这里插入图片描述
优化
中文对齐问题是通用问题:当中文字符宽度不够时,系统默认采用西文字符填充,加入采用中文空格填充的代码:
在这里插入图片描述

def printUnivList(ulist, num):
    # 第二个{}中仍包含一个{},表示我们使用format()中的标号为3的位置
    # 即chr(12288)位置标号为3进行填充,"排名"标号为0,学校名称1,总分2
    # 并将第二个{}中的占位符改为10,表示第二个{}一共占用十个字符的位置
    tplt = "{0:^10}\t{1:{3}^10}\t{2:^10}"
    print(tplt.format("排名", "学校名称", "总分", chr(12288)))
    for i in range(num):
        u = ulist[i]
        # print(u)
        print(tplt.format(u[0], u[1], u[2], chr(12288)))

在这里插入图片描述
但是这里又出现了标题和输出不对齐的问题,在名片管理系统也出现了,还未解决。(留意一下)

20:正则表达式re

完整版正则表达式的详细介绍见本人的这篇博客:
https://blog.csdn.net/qq_38132105/article/details/104269550

21:淘宝商品信息定向爬虫

注意淘宝的robots.txt不允许任何爬虫爬取,我们只在技术层面探讨这一章节的内容。

功能描述:
目标:获取淘宝搜索页面的信息,提取其中的商品名称和价格
理解:淘宝的搜索接口
翻页的处理
技术路线:requests-re
起始页
https://s.taobao.com/search?q=%E4%B9%A6%E5%8C%85&imgfile=&commend=all&ssid=s5-e&search_type=item&sourceId=tb.index&spm=a21bo.2017.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306
第二页
https://s.taobao.com/search?q=%E4%B9%A6%E5%8C%85&imgfile=&commend=all&ssid=s5-e&search_type=item&sourceId=tb.index&spm=a21bo.2017.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306&bcoffset=3&ntoffset=3&p4ppushleft=1%2C48&s=44
第三页
https://s.taobao.com/search?q=%E4%B9%A6%E5%8C%85&imgfile=&commend=all&ssid=s5-e&search_type=item&sourceId=tb.index&spm=a21bo.2017.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306&bcoffset=0&ntoffset=6&p4ppushleft=1%2C48&s=88

在这里插入图片描述
我们查看淘宝的源代码:发现,价格字段由’view_price’来标识,商品名称字段由’raw_title’来标识。因此如果我们想要获得这两个信息,只要在获得的文本中检索到其中的view_price和raw_title并把后续的相关内容提取出来即可。
从众多的文本中提取我们想要的信息,用正则表达式是非常合适的。另一个重要原因是,淘宝页面的商品信息虽然包含在html页面中,但它是一种脚本语言的体现,并不是完整的html页面的表示,它使用了动态脚本js,所以我们这里bs4库九无能为力了。
在这里插入图片描述
按嵩老师给的方法,现在已经不能够爬取内容。
在这里插入图片描述
需要模拟浏览器的header,也可以说是cookie,如下所示:
(1):首先登陆自己的淘宝账户
(2):在淘宝首页搜索书包
(3):在下方界面右键点击检查(以Chrome为例)
在这里插入图片描述
在这里插入图片描述
点击network,然后不要关闭检查界面,点击浏览器的刷新按钮,这时会出现很多文件
在这里插入图片描述
在红框文件处右键,选择Copy as cURL(bash)转到网址点击:https://curl.trillworks.com/,不要关闭淘宝界面,因为界面关闭后cookie只能维持一小段时间。关机之后爬取仍需重新粘贴新的headers
在这里插入图片描述
将复制内容,粘贴到curl command,可以规范代码格式。再复制Python requests里的headers = {

}里的内容即可,放到自己的代码中。
在这里插入图片描述
完整代码:

import requests
import re

def getHTMLText(url):
    try:
    	# 下方的空的字符串填上自己的浏览器生成的内容
        header = {
            'authority': '',
            'cache-control': '',
            'upgrade-insecure-requests': '',
            'user-agent': '',
            'accept': '',
            'referer': '',
            'accept-encoding': '',
            'accept-language': '',
            'cookie': '',
        }
        r = requests.get(url, headers = header)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        # print(r.request.headers)
        return r.text
    except:
        return ""

def parserPage(ilt, html):
	"""parserPage()函数用来解析返回的html页面"""
    try:
    	# 老师的教程上这里在原始字符串里用了转义符,可以不用,但在\.这里必须用
    	# 因为.也是正则表达式里的一个特殊字符,用\.转义表示是真正的小数点
    	# 用变量plt来接受findall()方法返回的列表
    	# plt所存储的列表的内容是html中所有满足正则表达式
    	# r'"view_price":"\d+\.\d*"'的字符串,以列表形式返回
        plt = re.findall(r'"view_price":"\d+\.\d*"', html)
        # 用变量tlt存储返回的title信息列表
        tlt = re.findall(r'"raw_title":".*?"', html)
        # 遍历列表plt
        for i in range(len(plt)):
        	# 把plt列表中的第i个字符串拿出来,并用:分割,将价格以字符串形式返回
        	# eval()将字符串类型的价格转化为整形
            price = eval(plt[i].split(':')[1])
            # title这里可以加eval(),输出时不带引号,也可以不加,自己实验
            title = tlt[i].split(':')[1]
            # 将price和title组成的列表追加到ilt列表中
            ilt.append([price, title])

    except:
        print("")

def printGoodsList(ilt):
	"""printGoodsList()函数打印商品信息"""
	# tplt定义了一个待格式化的字符串
    tplt = "{:4}\t{:8}\t{:16}"
    # tplt调用format()方法,按次序将字符串填入相对应的{}中
    print(tplt.format("序号", "价格", "商品名称"))
    # 定义一个计数器,用于输出序号
    count = 0
    for g in ilt:
    	# 遍历列表ilt
        count += 1
        # 格式化输出序号count,价格g[0],商品名称g[1]
        print(tplt.format(count, g[0], g[1]))


def main():
	# 定义要搜索的商品名
    goods = '书包'
    # 定义爬取的深度
    depth = 2
    # 定义爬取的url
    start_url = 'https://s.taobao.com/search?q=' + goods
    # 定义空列表
    infoList = []
    # 遍历每一页的内容
    for i in range(depth):
        try:
            url = start_url + '&s=' + str(44*i)
            html = getHTMLText(url)
            parserPage(infoList, html)
        except:
            continue
    printGoodsList(infoList)

main()

注意淘宝的robots.txt不允许任何爬虫爬取,我们只在技术层面探讨这一章节的内容。
仅供教学,请勿对淘宝网造成性能干扰。

未完待续…
参考文档:
北京理工大学 嵩天老师 中国大学慕课 Python网络爬虫与信息提取

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值