爬虫------Beautiful Soup与json的转化

BeautifulSoup4和 lxml 一样,Beautiful Soup 也是一个HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 数据。
lxml 只会局部遍历,而Beautiful Soup 是基于HTML DOM的,会载入整个文档,解析整个DOM树,因此时间和内存开销都会大很多,所以性能要低于lxml。
BeautifulSoup 用来解析 HTML 比较简单,API非常人性化,
支持CSS选择器(http://www.w3school.com.cn/cssref/css_selectors.asp)、Python标准库中的HTML解析器,也支持 lxml 的 XML解析器。
如果我们没有显式地指定解析器,所以默认使用这个系统的最佳可用HTML解析器(“lxml”)。
但是我们可以通过soup = BeautifulSoup(html,“lxml”)方式指定lxml解析器。
Beautiful Soup将复杂HTML文档转换成一个复杂的树形结构,每个节点都是Python对象,所有对象可以归纳为4种:
• Tag,通俗点讲就是 HTML 中的一个个标签
• NavigableString,获取标签内部的文字
• BeautifulSoup,对象表示的是一个文档的内容
• Comment,是一个特殊类型的 NavigableString 对象,其输出的内容不包括注释符号

#创建 Beautiful Soup 对象(多个默认得到一个)

soup = BeautifulSoup(html,"lxml")
print(soup.title)# <title>The Dormouse's story</title>
print(soup.name)# [document] #soup 对象本身比较特殊,它的 name 即为 [document]
print(soup.head.name)# head #对于其他内部标签,输出的值便为标签本身的名称
print(soup.p.attrs)# {'clasprint(soup.p.attrs)s': ['title'], 'name': 'dromouse'}# 在这里,我们把 p 标签的所有属性打印输出了出来,得到的类型是一个字典。
print(soup.p.attrs["class"][0])获取标签属性
print(soup.p['class']) # soup.p.get('class')# ['title'] #还可以利用get方法,传入属性的名称,二者是等价的
print(soup.p.string)得到p标签里的内容。类型为NavigableString子类为Comment
print(type(soup.p.string))#  <class 'bs4.element.NavigableString'>
print(soup.p.text)得到p标签里的内容字符串
tag 的 .content 属性可以将tag的子节点以列表的方式输出
print(soup.head.contents) #[<title>The Dormouse's story</title>]
hildren它返回的不是一个 list,不过我们可以通过遍历获取所有子节点。
我们打印输出 .children 看一下,可以发现它是一个 list 生成器对象
print(soup.head.children)#<listiterator object at 0x7f71457f5710>
.contents 和 .children 属性仅包含tag的直接子节点,.descendants 属性可以对所有tag的子孙节点进行递归循环,和 children类似,我们也需要遍历获取其中的内容。
for child in soup.descendants:
    print(child)

搜索文档树--find_all:语法:.find_all(name, attrs, recursive, text, **kwargs)

A.传字符串:print(soup.find_all(name='b'))换行或这有别的标签获取不到内容string
B.传正则表达式:for tag in soup.find_all(re.compile("^b"))只取标签
C.传列表:print(soup.find_all(["a", "b"]))只取标签
keyword 参数:查找id为link3的标签print(soup.find_all(id='link2'))取标签放在列表
href得到所有的连接:
links = soup.find_all(href=re.compile(r'http://example.com/'))
#得到所以的链接
for link in links:
   print(link.attrs["href"])或 print(link["href"])

#搜索tag名 <title></title>
soup.find_all("title")

#关于属性
#搜索id为"link2"的标签
soup.find_all(id='link2')

#这里属性的值可以使用字符串,正则表达式 ,列表,True
soup.find_all(id=re.compile("elsie"))

#可以指定多个条件
soup.find_all(href=re.compile("elsie"), id='link1')

#对于有些不能指定的标签(meta)Keywords可以用正则
soup.find_all(attrs={""name":"Keywords"})

#搜索内容为‘联系我们’的a标签用lambda

tell_us = soup.find_all(lambda e: e.name == 'a' and '联系我们' in e.text)

#对于class -->class为python保留字使用class_
soup.find_all(class_="top")
#属性结束

#关于string(内容)
#基础 内容为'Elsie'的
soup.find_all(string="Elsie")

#内容在数组中的
soup.find_all(string=["Tillie", "Elsie", "Lacie"])

#内容匹配正则表达式的
soup.find_all(string=re.compile("Dormouse"))

#匹配函数
soup.find_all(string=is_the_only_string_within_a_tag)
#内容结束

#搜索限制
#限制搜索数量为2
soup.find_all("a", limit=2)

#只搜索直接子节点
soup.html.find_all("a", recursive=False)
#搜索限制结束

Selectors选择器(选择器(select)-用得多)

scrapy Selectors 内置 XPath 和 CSS Selector 表达式机制
Selector有四个基本的方法,最常用的还是xpath:
xpath(): 传入xpath表达式,返回该表达式所对应的所有节点的selector list列表
extract(): 序列化该节点为Unicode字符串并返回list。可以用get替代
css(): 传入CSS表达式,返回该表达式所对应的所有节点的selector list列表,语法同 BeautifulSoup4
re(): 根据传入的正则表达式对数据进行提取,返回Unicode字符串list列表
1 通过标签名查找--直接标签名:print(soup.select('title')) 
2 通过类名查找--.print(soup.select('.sister'))
3 通过 id 名查找--# print(soup.select('#link1'))
4 组合查找即和写 class 文件时,标签名与类名、id名进行的组合原理是一样的,例如查找 p 标签中,id 等于 link1的内容,二者需要用空格分开 print(soup.select('p #link1'))
直接子标签查找,则使用 > 分隔 print(soup.select("head > title"))
5 属性查找。查找时还可以加入属性元素,属性需要用中括号括起来,注意属性和标签属于同一节点,所以中间不能加空格,否则会无法匹配到。
print(soup.select('a[class="sister"]'))
6 获取内容以上的 select 方法返回的结果都是列表形式,可以遍历形式输出,然后用 
get_text() 方法来获取它的内容。
JSON数据格式

json模块

json简单说就是javascript中的对象和数组,所以这两种结构就是对象和数组两种结构,通过这两种结构可以表示各种复杂的结构

json模块提供了四个功能:dumps、dump、loads、load,用于字符串 和 python数据类型间进行转换。
json.lo1ads()--Json转Python对象,在内存转化
#转换成python里面的列表python_list = json.loads(str_list)
json.dumps()--python转json字符串,在内存转化
#转换成json里面的列表str_list = json.dumps(list_str)# '[1, 2, 3, 4]'
注意:json.dumps() 序列化时默认使用的ascii编码
添加参数 ensure_ascii=False 禁用ascii编码,按utf-8编码
 chardet.detect()返回字典, 其中confidence是检测精确度
#检查默认是用什么编码
encode = chardet.detect(str_dict.encode())
#设置使用utf-8编码
print(json.dumps(dict_str, ensure_ascii=False) )# {"name": "大猫", "city": "北京"}

json.dump()--Python转json对象,写入文件

import json

list_str = [{"city": "北京"}, {"name": "大刘"}]

#保存列表到list_str.json文件中,并且以utf-8编码

fw = open("list_str.json","w",encoding="utf-8")

json.dump(list_str, fw, ensure_ascii=False)

dict_str = {"city": "北京", "name": "大刘"}
#保存字典到dict_str.json文件中,并且以utf-8编码
fw = open("dict_str.json","w",encoding="utf-8")
json.dump(dict_str,fw , ensure_ascii=False,)
json.load()--json转python类型,读取文件
import json
f = open("list_str.json","r",encoding="utf-8")
strList = json.load(f)
print(strList)#[{'city': '北京'}, {'name': '大刘'}]
strDict = json.load(open("dict_str.json",encoding="utf-8"))
print(strDict)#{'name': '大刘', 'city': '北京'}
 

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下为一个python爬虫案例教学授课流程: 1. 引入爬虫概念及基本原理 - 爬虫是一种自动化程序,用于自动抓取互联网上的信息。 - 爬虫的基本原理是通过网络请求获取网页源代码,然后提取所需信息。 - 爬虫应用广泛,如搜索引擎、数据挖掘、舆情监测等领域。 2. 介绍python爬虫工具及库 - Python是一种流行的编程语言,有许多强大的爬虫工具和库可供使用。 - 常用的爬虫工具有Scrapy、Beautiful Soup、Selenium等。 - 常用的爬虫库有requests、urllib、re等。 3. 爬取网站数据 - 选择一个目标网站,解析其HTML结构,确定需要爬取的数据。 - 根据网站的robots.txt文件了解爬取规则,避免被封IP。 - 使用requests库发送HTTP请求,获取网页源代码。 - 使用Beautiful Soup库解析网页源代码,提取需要的数据。 4. 数据处理及存储 - 对爬取到的数据进行清洗和处理,去除无用信息。 - 将处理后的数据存储到本地文件或数据库中,可选的数据存储方式有txt、csv、json、MySQL等。 5. 爬虫优化 - 遵守网站爬虫规则,设置合理的爬虫频率和抓取速度,避免对网站造成压力。 - 使用代理IP、随机User-Agent等方式隐藏爬虫身份,防止被封IP。 - 处理异常情况,如网络连接超时、HTML解析错误等。 6. 案例演示 - 选择一个具体的网站进行演示,如爬取新闻、电影信息等。 - 按照上述流程进行演示,给学生一个完整的爬虫案例。 - 结合实际案例讲解爬虫工具和库的使用方法,让学生可以快速上手实践。 7. 练习及作业 - 给学生一些练习题,让他们独立完成一个小型爬虫项目。 - 对于有经验的学生,可以让他们自选一个感兴趣的网站进行爬取。 - 提供一些数据分析和可视化的工具,让学生将爬取到的数据进行处理和展示。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值