python爬虫用Beatifulsoup库解析网页提取所需元素新手看懂
个人观点:
之前我们有讲过爬虫和网页的一些联系,网页的一些组成部分,爬虫就是对网页里面的数据进行提取然后对其进行数据处理,筛选出所需部分,供需要者使用。
___________________________________________________________
所需工具:
浏览器打开任意我们想要解析网页,比如某大型搜索引擎,什么什么娘,heihei
编辑器:pycharm,
—————————————————————————
我们分成三部分来完成今天的工作:
第一部分:使用Beautifulsoup来解析解析网页,
首先我们讲一下这个Beautifulsoup库,我们用来解析网页和提取网页元素的模块并不止这个,有Xpath ,re正则表达式,urllib,小伙伴们可以都去了解一下其他的,我个人认为Beatifusoup比较简单粗暴,里面的lxml库比较快,而且对很多网页都可以使用,直接根部提取,但是这好比一个工具,并不是所有人用着就顺手,见仁见智吧。
下图BeautifuSoup解析网页的语句:
大家看到括号里面是一个html网页,后面的lxml是解析库,
第二 部分:提取网页中的元素:描述你要爬取的东西在那里?
Soup.select是要找到我们要爬去的东西在哪里,有什么条件,
第三部分:就是提取道元素并清洗,去掉不必要的结构,比如下面p标签这些,得到哪些是我们想要的去掉那些不是我们所需的,
然后装入一个表里供我们查询使用:
Beautifulsoup解析网页的步骤就这些,小伙伴们可以实际操作一下。因为大家都是小白,或者有点基础,所以不说那么多,下一次我们实际操作爬去一个网页给大家进行演示,我本人对爬虫和数据分析比较感兴趣,每一次为了爬去自己想要的东西,可以就天忘记了时间,太享受了,就是起来走路的时候有点脚发飘,这是提醒和我一样喜欢坐电脑前的小伙伴们注意身体健康。