python is beautiful_Python的Beautiful Soup简单使用

Beautiful Soup是python的一个库,最主要的功能是从网页抓取数据

Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能

它是一个工具箱,通过解析文档为用户提供需要抓取的数据

Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码

安装

pip install bs4

创建一个字符串

html="""

The Dormouse's story

The Dormouse's story

Once upon a time there were three little sisters; and their names were,LacieandTillie;

and they lived at the bottom of a well.

...

"""

使用BeautifulSoup解析这段代码,能够得到一个 BeautifulSoup 的对象,并能按照标准的缩进格式的结构输出

from bs4 importBeautifulSoup

soup=BeautifulSoup(html,"html.parser")print(soup.prettify())

798214-20170904143141522-1284231541.png

也可以用本地 HTML 文件来创建对象

soup=BeautifulSoup(open("index.html"),"html.parser")

prettify()格式化输出,将Beautiful Soup的文档树格式化后以Unicode编码输出,每个XML/HTML标签都独占一行

四种Beautiful Soup对象类型

Beautiful Soup将复杂HTML文档转换成一个复杂的树形结构,每个节点都是Python对象,所有对象有4种

Tag

HTML 中的标签

print(soup.title)

798214-20170904121020444-42913262.png

print(soup.a)

798214-20170904143231663-1475196926.png

Tag的属性, name 和 attrs

name

print(soup.name)print(soup.p.name)

798214-20170904130928710-1107364000.png

soup 对象的name 即为 [document],对于其他标签,输出的值便为标签本身的名称

attrs

print(soup.p.attrs)print(soup.p['class'])

soup.p['class']="newClass"

print(soup.p.get('class'))print(soup.p)del soup.p['class']print(soup.p)

798214-20170904131356991-522011560.png

NavigableString

获取标签内部的文字,用 .string

print(soup.p)print(soup.p.string)print(type(soup.p.string))

798214-20170904131658429-1364983022.png

BeautifulSoup

BeautifulSoup 对象表示的是一个文档的全部内容.可以把它当作特殊的Tag 对象

print(type(soup.name))print(soup.name)print(soup.attrs)

798214-20170904132428351-1004833516.png

Comment

Comment 对象是一个特殊类型的 NavigableString 对象

用CDATA来替代注释

from bs4 importBeautifulSoup,CData

markup= ""soup= BeautifulSoup(markup,"html.parser")print(soup.b.prettify())

comment=soup.b.string

cdata= CData("A CDATA block")

comment.replace_with(cdata)print(soup.b.prettify())

798214-20170904143852163-1582915523.png

遍历文档树

1.子孙节点

(1)contents

将tag的子节点以列表的方式输出

from bs4 importBeautifulSoup

soup=BeautifulSoup(open("index.html"),"html.parser")

head_tag=soup.headprint(len(soup.contents))print(head_tag)

contents=head_tag.contentsprint(contents)

title_tag=head_tag.contents[0]print(title_tag)

text=title_tag.contents[0]print(text)

798214-20170904145446554-1244254081.png

说明:

字符串没有 .contents 属性,因为字符串没有子节点

(2)children

得到一个节点的迭代器,可以遍历之获取其中的元素

from bs4 importBeautifulSoup

soup=BeautifulSoup(open("index.html"),"html.parser")

head_tag=soup.head

contents=head_tag.contents

title_tag=head_tag.contents[0]for child intitle_tag.children:print(child)

798214-20170904145709179-1953604505.png

(3)descendants

对所有tag的子孙节点进行递归循环

from bs4 importBeautifulSoup

soup=BeautifulSoup(open("index.html"),"html.parser")

head_tag=soup.headfor child inhead_tag.descendants:print(child)

798214-20170904145952741-538744228.png

标签只有一个子节点,但是有2个子孙节点

from bs4 importBeautifulSoup

soup=BeautifulSoup(open("index.html"),"html.parser")print(len(list(soup.children)))print(len(list(soup.descendants)))

798214-20170904150253257-1735208280.png

(4)string

from bs4 importBeautifulSoup

soup=BeautifulSoup(open("index.html"),"html.parser")

head_tag=soup.head

contents=head_tag.contents

title_tag= head_tag.contents[0]

如果tag只有一个 NavigableString 类型子节点,那么这个tag可以使用 .string 得到子节点

print(title_tag.string)

798214-20170904151227851-1338987909.png

如果一个tag仅有一个子节点,那么这个tag也可以使用

print(head_tag.string)

798214-20170904151240835-2026715017.png

如果tag包含了多个子节点,tag就无法确定 .string 方法应该调用哪个子节点的内容, .string 的输出结果是 None

print(soup.html.string)

798214-20170904151252351-1366514073.png

(4)strings

如果tag中包含多个字符串 ,可以使用 .strings 来循环获取

from bs4 importBeautifulSoup

soup=BeautifulSoup(open("index.html"),"html.parser")for string insoup.strings:print(repr(string))

798214-20170904151610851-1484557465.png

.stripped_strings 可以去除多余空白内容

from bs4 importBeautifulSoup

soup=BeautifulSoup(open("index.html"),"html.parser")for string insoup.stripped_strings:print(repr(string))

798214-20170904151741522-830174909.png

全部是空格的行会被忽略掉,段首和段末的空白会被删除

2.父亲节点

(1)parent

获取某个元素的父节点

soup=BeautifulSoup(open("index.html"),"html.parser")

head_tag=soup.head

contents=head_tag.contents

title_tag=head_tag.contents[0]print(title_tag)#

标签是标签的父节点

print(title_tag.parent)#顶层节点比如的父节点是 BeautifulSoup 对象

print(type(soup.html.parent))#BeautifulSoup 对象的 .parent 是None

print(soup.parent)

798214-20170904152716585-249628219.png

(2).parents

递归得到元素的所有父辈节点

遍历了标签到根节点的所有节点

soup=BeautifulSoup(open("index.html"),"html.parser")

link=soup.aprint(link)for parent inlink.parents:if parent isNone:print(parent)else:print(parent.name)

798214-20170904153010522-666075364.png

3.兄弟节点

(1)next_sibling下一个节点

(2)previous_sibling上一个节点

sibling_soup = BeautifulSoup("text1text2",'html.parser')print(sibling_soup.prettify())

798214-20170904153950101-277034583.png

print(sibling_soup.b.next_sibling)

print(sibling_soup.c.previous_sibling)

798214-20170904154104194-904028510.png

(3)next_siblings所有的后续节点

(4)previous_siblings所有之前的节点

soup=BeautifulSoup(open("index.html"),"html.parser")for sibling insoup.a.next_siblings:print(repr(sibling))for sibling in soup.find(id="link3").previous_siblings:print(repr(sibling))

4.前后节点

(1)next_element

下一个被解析的对象

(2)previous_element

前一个解析对象

from bs4 importBeautifulSoup

soup=BeautifulSoup(open("index.html"),"html.parser")

last_a_tag= soup.find("a", id="link3")print(last_a_tag)print(last_a_tag.next_element)print(last_a_tag.previous_element)

798214-20170904155317460-1427769896.png

树的搜索

(1) find_all()

搜索当前tag的所有tag子节点,并判断是否符合过滤器的条件

from bs4 importBeautifulSoup

soup=BeautifulSoup(open("index.html"),"html.parser")print(soup.find_all("a"))print(soup.find_all(id="link2"))importreprint(soup.find(string=re.compile("sisters")))#Once upon a time there were three little sisters; and their names were

格式: find_all( name , attrs , recursive , string , **kwargs )

说明:

(a)name 参数

可以查找所有名字为 name 的tag,字符串对象会被自动忽略掉

eg:soup.find_all("title")

(b)keyword 参数

指定名字的参数不是搜索内置的参数名,搜索时会把该参数当作指定名字tag的属性来搜索

如果包含一个名字为 id 的参数,Beautiful Soup会搜索每个tag的”id”属性

eg:soup.find_all(id='link2')

798214-20170904161515413-1188791590.png

如果传入 href 参数,Beautiful Soup会搜索每个tag的”href”属性

eg:soup.find_all(href=re.compile("elsie"))

798214-20170904161539632-2076106680.png

查找所有包含 id 属性的tag,无论 id 的值是什么

eg:soup.find_all(id=True)

798214-20170904161748663-1147773583.png

有些tag属性在搜索不能使用,比如HTML5中的 data-* 属性,可以通过 find_all() 方法的 attrs 参数定义一个字典参数来搜索包含特殊属性的tag

from bs4 importBeautifulSoup

data_soup= BeautifulSoup('

foo!
','lxml')print(data_soup.find_all(attrs={"data-foo": "value"}))

798214-20170904162053194-1626900016.png

(c)CSS搜索

eg:soup.find_all("a", class_="sister")

(d)string参数

eg:

soup.find_all(string=["Tillie", "Elsie", "Lacie"])

(e)limit参数

限制返回结果的数量

eg:

soup.find_all("a", limit=2)

(f)recursive

只搜索tag的直接子节点,使用参数 recursive=False

(1)find()

格式: find( name , attrs , recursive , string , **kwargs )

soup.find_all('title', limit=1) #返回结果是值包含一个元素的列表,没有找到目标是返回空列表

soup.find('title') #直接返回结果,找不到目标时,返回 None

获取文档内容

get_text()

可以获取到tag中包含的所有文版内容包括子孙tag中的内容,并将结果作为Unicode字符串返回

frombs4 import BeautifulSoup

markup= '\nI linked to example.com\n'soup= BeautifulSoup(markup,"html.parser")

print(soup.get_text())

print(soup.i.get_text())

798214-20170905092212147-239156047.png

可以通过参数指定tag的文本内容的分隔符

frombs4 import BeautifulSoup

markup= '\nI linked to example.com\n'soup= BeautifulSoup(markup,"html.parser")

print(soup.get_text("|"))

798214-20170905092302335-1062260934.png

可以去除获得文本内容的前后空白

frombs4 import BeautifulSoup

markup= '\nI linked to example.com\n'soup= BeautifulSoup(markup,"html.parser")

print(soup.get_text("|", strip=True))

798214-20170905092348022-1808194187.png

用 .stripped_strings获得文本列表

frombs4 import BeautifulSoup

markup= '\nI linked to example.com\n'soup= BeautifulSoup(markup,"html.parser")

print([textfor text in soup.stripped_strings])

798214-20170905092554585-869887596.png

安装解析器

创建 BeautifulSoup 对象

解析器使用方法优势劣势

Python标准库

BeautifulSoup(markup, "html.parser")

Python的内置标准库

执行速度适中

文档容错能力强

Python 2.7.3 or 3.2.2)前 的版本中文档容错能力差

lxml HTML 解析器

BeautifulSoup(markup, "lxml")

速度快

文档容错能力强

需要安装C语言库

lxml XML 解析器

BeautifulSoup(markup, ["lxml-xml"])

BeautifulSoup(markup, "xml")

速度快

唯一支持XML的解析器

需要安装C语言库

html5lib

BeautifulSoup(markup, "html5lib")

最好的容错性

以浏览器的方式解析文档

生成HTML5格式的文档

速度慢

不依赖外部扩展

pip install html5lib

pip install lxml

lxml解析器,效率更高

参考资料:

http://beautifulsoup.readthedocs.io/zh_CN/latest/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
东南亚位于我国倡导推进的“一带一路”海陆交汇地带,作为当今全球发展最为迅速的地区之一,近年来区域内生产总值实现了显著且稳定的增长。根据东盟主要经济体公布的最新数据,印度尼西亚2023年国内生产总值(GDP)增长5.05%;越南2023年经济增长5.05%;马来西亚2023年经济增速为3.7%;泰国2023年经济增长1.9%;新加坡2023年经济增长1.1%;柬埔寨2023年经济增速预计为5.6%。 东盟国家在“一带一路”沿线国家中的总体GDP经济规模、贸易总额与国外直接投资均为最大,因此有着举足轻重的地位和作用。当前,东盟与中国已互相成为双方最大的交易伙伴。中国-东盟贸易总额已从2013年的443亿元增长至 2023年合计超逾6.4万亿元,占中国外贸总值的15.4%。在过去20余年中,东盟国家不断在全球多变的格局里面临挑战并寻求机遇。2023东盟国家主要经济体受到国内消费、国外投资、货币政策、旅游业复苏、和大宗商品出口价企稳等方面的提振,经济显现出稳步增长态势和强韧性的潜能。 本调研报告旨在深度挖掘东南亚市场的增长潜力与发展机会,分析东南亚市场竞争态势、销售模式、客户偏好、整体市场营商环境,为国内企业出海开展业务提供客观参考意见。 本文核心内容: 市场空间:全球行业市场空间、东南亚市场发展空间。 竞争态势:全球份额,东南亚市场企业份额。 销售模式:东南亚市场销售模式、本地代理商 客户情况:东南亚本地客户及偏好分析 营商环境:东南亚营商环境分析 本文纳入的企业包括国外及印尼本土企业,以及相关上下游企业等,部分名单 QYResearch是全球知名的大型咨询公司,行业涵盖各高科技行业产业链细分市场,横跨如半导体产业链(半导体设备及零部件、半导体材料、集成电路、制造、封测、分立器件、传感器、光电器件)、光伏产业链(设备、硅料/硅片、电池片、组件、辅料支架、逆变器、电站终端)、新能源汽车产业链(动力电池及材料、电驱电控、汽车半导体/电子、整车、充电桩)、通信产业链(通信系统设备、终端设备、电子元器件、射频前端、光模块、4G/5G/6G、宽带、IoT、数字经济、AI)、先进材料产业链(金属材料、高分子材料、陶瓷材料、纳米材料等)、机械制造产业链(数控机床、工程机械、电气机械、3C自动化、工业机器人、激光、工控、无人机)、食品药品、医疗器械、农业等。邮箱:market@qyresearch.com
完整版:https://download.csdn.net/download/qq_27595745/89522468 【课程大纲】 1-1 什么是java 1-2 认识java语言 1-3 java平台的体系结构 1-4 java SE环境安装和配置 2-1 java程序简介 2-2 计算机中的程序 2-3 java程序 2-4 java类库组织结构和文档 2-5 java虚拟机简介 2-6 java的垃圾回收器 2-7 java上机练习 3-1 java语言基础入门 3-2 数据的分类 3-3 标识符、关键字和常量 3-4 运算符 3-5 表达式 3-6 顺序结构和选择结构 3-7 循环语句 3-8 跳转语句 3-9 MyEclipse工具介绍 3-10 java基础知识章节练习 4-1 一维数组 4-2 数组应用 4-3 多维数组 4-4 排序算法 4-5 增强for循环 4-6 数组和排序算法章节练习 5-0 抽象和封装 5-1 面向过程的设计思想 5-2 面向对象的设计思想 5-3 抽象 5-4 封装 5-5 属性 5-6 方法的定义 5-7 this关键字 5-8 javaBean 5-9 包 package 5-10 抽象和封装章节练习 6-0 继承和多态 6-1 继承 6-2 object类 6-3 多态 6-4 访问修饰符 6-5 static修饰符 6-6 final修饰符 6-7 abstract修饰符 6-8 接口 6-9 继承和多态 章节练习 7-1 面向对象的分析与设计简介 7-2 对象模型建立 7-3 类之间的关系 7-4 软件的可维护与复用设计原则 7-5 面向对象的设计与分析 章节练习 8-1 内部类与包装器 8-2 对象包装器 8-3 装箱和拆箱 8-4 练习题 9-1 常用类介绍 9-2 StringBuffer和String Builder类 9-3 Rintime类的使用 9-4 日期类简介 9-5 java程序国际化的实现 9-6 Random类和Math类 9-7 枚举 9-8 练习题 10-1 java异常处理 10-2 认识异常 10-3 使用try和catch捕获异常 10-4 使用throw和throws引发异常 10-5 finally关键字 10-6 getMessage和printStackTrace方法 10-7 异常分类 10-8 自定义异常类 10-9 练习题 11-1 Java集合框架和泛型机制 11-2 Collection接口 11-3 Set接口实现类 11-4 List接口实现类 11-5 Map接口 11-6 Collections类 11-7 泛型概述 11-8 练习题 12-1 多线程 12-2 线程的生命周期 12-3 线程的调度和优先级 12-4 线程的同步 12-5 集合类的同步问题 12-6 用Timer类调度任务 12-7 练习题 13-1 Java IO 13-2 Java IO原理 13-3 流类的结构 13-4 文件流 13-5 缓冲流 13-6 转换流 13-7 数据流 13-8 打印流 13-9 对象流 13-10 随机存取文件流 13-11 zip文件流 13-12 练习题 14-1 图形用户界面设计 14-2 事件处理机制 14-3 AWT常用组件 14-4 swing简介 14-5 可视化开发swing组件 14-6 声音的播放和处理 14-7 2D图形的绘制 14-8 练习题 15-1 反射 15-2 使用Java反射机制 15-3 反射与动态代理 15-4 练习题 16-1 Java标注 16-2 JDK内置的基本标注类型 16-3 自定义标注类型 16-4 对标注进行标注 16-5 利用反射获取标注信息 16-6 练习题 17-1 顶目实战1-单机版五子棋游戏 17-2 总体设计 17-3 代码实现 17-4 程序的运行与发布 17-5 手动生成可执行JAR文件 17-6 练习题 18-1 Java数据库编程 18-2 JDBC类和接口 18-3 JDBC操作SQL 18-4 JDBC基本示例 18-5 JDBC应用示例 18-6 练习题 19-1 。。。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值