先自我介绍一下,小编浙江大学毕业,去过华为、字节跳动等大厂,目前阿里P7
深知大多数程序员,想要提升技能,往往是自己摸索成长,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年最新Golang全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上Go语言开发知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
如果你需要这些资料,可以添加V获取:vip1024b (备注go)
正文
在使用 BeautifulSoup 进行解析时,可能会遇到一些异常情况,如标签不完整、编码问题等。了解如何处理这些异常情况是很重要的。可以使用 try-except
语句来捕获并处理异常。
8. 进阶用法:
在第8点中,提到了一些进阶的用法,可以进一步学习和掌握 BeautifulSoup 库的高级功能。以下是一些有关进阶用法的更详细说明:
8.1. 使用不同的解析器:
BeautifulSoup 默认使用 Python 内置的解析器 html.parser
,但也支持其他解析器,如 lxml
、html5lib
等。这些解析器在处理某些复杂的 HTML 或 XML 文档时可能更可靠或更快速。可以使用解析器的名称作为第二个参数传递给 BeautifulSoup 的构造函数来选择特定的解析器。
例如,使用 lxml
解析器可以这样创建解析树对象:
soup = BeautifulSoup(html_string, ‘lxml’)
需要注意的是,使用不同的解析器可能需要额外安装相关的库。
8.2. 使用 CSS 选择器:
BeautifulSoup 提供了 select
方法来使用 CSS 选择器定位节点。使用 CSS 选择器可以更方便地定位节点,特别是对于复杂的文档结构。
例如,使用 CSS 选择器定位所有带有 class
属性为 my-class
的 div
标签可以这样写:
divs = soup.select(‘div.my-class’)
这将返回一个列表,包含所有符合条件的 div
标签。
8.3. 使用正则表达式:
BeautifulSoup 的 find
和 find_all
方法的 string
参数支持正则表达式,可以用来定位节点文本内容符合特定模式的节点。
例如,使用正则表达式定位所有文本内容为数字的节点可以这样写:
import re
pattern = re.compile(r’\d+')
nodes = soup.find_all(string=pattern)
这将返回一个列表,包含所有符合条件的节点。
通过学习和实践这些进阶用法,你可以更加灵活地使用 BeautifulSoup 库,处理更复杂的 HTML 或 XML 文档,并提取出所需的信息。阅读官方文档和参考示例代码也是掌握这些用法的好方法。
9. 练习和实践:
最好的学习方式是通过实践。尝试使用 BeautifulSoup 库解析不同的网页,并提取出所需的信息。通过实践,你可以更好地理解和掌握 BeautifulSoup 的各种功能和技巧。
9.1. 修改节点内容:
BeautifulSoup 提供了 replace_with
方法来替换节点的内容。可以使用该方法修改节点的文本内容或标签。
例如,将一个节点的文本内容替换为新的内容可以这样写:
node = soup.find(‘p’)
node.string.replace_with(‘New Content’)
这将把该节点的文本内容替换为 'New Content'
。
9.2. 遍历节点树:
使用 BeautifulSoup,可以通过遍历节点树的方式来访问和处理文档中的节点。可以使用 children
、descendants
、next_sibling
、previous_sibling
等方法来访问不同层级和关系的节点。
例如,遍历并打印所有子节点的文本内容可以这样写:
for child in soup.body.children:
print(child.string)
9.3. 处理 XML 文档:
BeautifulSoup 不仅可以用于解析 HTML 文档,也可以用于解析 XML 文档。可以使用相同的方法和属性来处理 XML 文档。
例如,解析 XML 文档可以这样写:
soup = BeautifulSoup(xml_string, ‘xml’)
然后就可以使用 BeautifulSoup 提供的方法和属性来访问和处理 XML 文档。
以上是一些关于 BeautifulSoup 库的其他功能和扩展的说明。通过学习和实践这些功能,你可以更加灵活地处理和操作文档中的节点,完成更复杂的任务和需求。阅读官方文档和参考示例代码也是掌握这些功能的好方法。
10. 案例
案例1: 修改节点内容
假设我们有一个 HTML 文档,其中一个 <p>
标签包含了一段旧的文本内容。我们想要将这段文本内容替换为新的内容。
from bs4 import BeautifulSoup
html = ‘’’
旧的文本内容
'''soup = BeautifulSoup(html, ‘html.parser’)
node = soup.find(‘p’)
node.string.replace_with(‘新的文本内容’)
print(soup)
输出:
新的文本内容
在这个案例中,我们使用 find
方法找到了 <p>
标签的节点,然后使用 replace_with
方法将节点的文本内容替换为 '新的文本内容'
。
案例2: 遍历节点树
假设我们有一个 HTML 文档,其中包含了一些嵌套的标签,我们想要遍历并打印所有的文本内容。
from bs4 import BeautifulSoup
html = ‘’’
第一个段落
第二个段落
soup = BeautifulSoup(html, ‘html.parser’)
for child in soup.body.children:
if child.string:
print(child.string)
输出:
第一个段落
第二个段落
在这个案例中,我们使用了 children
方法来访问 body
标签下的子节点。然后我们使用了 string
属性来获取节点的文本内容,并进行打印。
案例3: 处理 XML 文档
除了解析 HTML 文档,BeautifulSoup 也可以用于解析 XML 文档。我们可以使用相同的方法和属性来处理 XML 文档。
from bs4 import BeautifulSoup
xml = ‘’’
John
30
Jane
25
‘’’
soup = BeautifulSoup(xml, ‘xml’)
persons = soup.find_all(‘person’)
for person in persons:
name = person.find(‘name’).string
age = person.find(‘age’).string
print(f"Name: {name}, Age: {age}")
输出:
Name: John, Age: 30
Name: Jane, Age: 25
在这个案例中,我们使用了 'xml'
参数来指定解析器,告诉 BeautifulSoup 这是一个 XML 文档。然后我们使用了 find_all
方法来找到所有的 person
标签,进而获取每个 person
标签下的 name
和 age
的文本内容,并进行打印。
这些案例展示了 BeautifulSoup 库的其他功能和扩展的用法。你可以根据自己的需求和任务,使用这些功能来解析、处理和操作文档中的节点。
11. 练习题
练习题1: 获取所有链接
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
需要这份系统化的资料的朋友,可以添加V获取:vip1024b (备注Go)
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
11. 练习题
练习题1: 获取所有链接
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
需要这份系统化的资料的朋友,可以添加V获取:vip1024b (备注Go)
[外链图片转存中…(img-sHnJEbA0-1713212267571)]
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!