BeautifulSoup在爬虫中的应用

在网页爬虫中,往往会出现这样的情况,我需要一次性抓取某个标签中所有的内容,比如<p></p>中的内容,但是不止一对这样的标签,这个时候就可以用到BeautifulSoup了。

可以直接去官网安装,也可以用命令pip install beautifulsoup4,来安装beautifulsoup。前提是要装了pip。


进入正题:

# -*- coding: utf-8 -*-
__author__ = 'Taylor Rose'
import re
import requests
from bs4 import BeautifulSoup
html="""
<html><head><title>Love Story</title></head>
<body>
<p class="title"><b>The Taylor's story</b></p>

<p class="story">We were both young when I first saw you
<a href="http://example.com/elsie" class="sister" id="link1">Juliet</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Romio</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Taylor</a>;
Pull out ring and said:"Marry me Juliet you never have to be alone-"</p>

<p class="story">...</p>
"""
soup=BeautifulSoup(html,"lxml")
print(soup.title)
print(soup.title.name)
print(soup.title.string)
print(soup.p)
print(soup.a)
print(soup.find_all('a'))
print(soup.find(id="link2"))#id=""可以和上一行结合在一起
print(soup.get_text())#如果get_text没有括号的话得到的内容是以一整行的格式输出

可以看出:soup 就是BeautifulSoup处理格式化后的字符串,soup.title 得到的是title标签,soup.p  得到的是文档中的第一个p标签,要想得到所有标签,得用find_all

函数。find_all 函数返回的是一个序列,可以对它进行循环,依次得到想到的东西.

get_text() 是返回文本,这个对每一个BeautifulSoup处理后的对象得到的标签都是生效的。你可以试试 print soup.p.get_text()

其实是可以获得标签的其他属性的,比如我要获得a标签的href属性的值,可以使用 print soup.a['href'],类似的其他属性,比如class也是可以这么得到的(soup.a['class'])。

特别的,一些特殊的标签,比如head标签,是可以通过soup.head 得到,其实前面也已经说了。

如何获得标签的内容数组?使用contents 属性就可以 比如使用 print soup.head.contents,就获得了head下的所有子孩子,以列表的形式返回结果,

可以使用 [num]  的形式获得 ,获得标签,使用.name 就可以。

获取标签的孩子,也可以使用children,但是不能print soup.head.children 没有返回列表,返回的是 <listiterator object at 0x108e6d150>,

不过使用list可以将其转化为列表。当然可以使用for 语句遍历里面的孩子。

关于string属性,如果超过一个标签的话,那么就会返回None,否则就返回具体的字符串print soup.title.string 就返回了 The Dormouse's story

超过一个标签的话,可以试用strings

向上查找可以用parent函数,如果查找所有的,那么可以使用parents函数

查找下一个兄弟使用next_sibling,查找上一个兄弟节点使用previous_sibling,如果是查找所有的,那么在对应的函数后面加s就可以

注:如果要查看更多内容,http://www.crummy.com/software/BeautifulSoup/bs3/documentation.zh.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值