python解析库beautifulsoup_Python 之beautifulSoup4解析库

一、节点选择器

from bs4 importBeautifulSoupif __name__ == '__main__':

html= '''

'''soup= BeautifulSoup(html, features="lxml")#只会获取第一个匹配的

print(soup.li) #

yangs zi

#获取第一个元素的所有属性

print(soup.li.attrs) #{'class': ['aaa', 'last-li']}

#获取指定属性class的值

print(soup.li.attrs["class"]) #['aaa', 'last-li']

#获取li下的a标签的所有属性

print(soup.li.a.attrs) #{'href': '1.html'}

#获取li的class属性值

print(soup.li['class']) #['aaa', 'last-li']

#如果有多个则会返回None

print(soup.li.string) #None

print(soup.li.contents) #[yangs, zi]

print(soup.li.children) #

#yangs

#zi

for i insoup.li.children:print(i.string)#descendants属性获取子孙节点,返回生成器

'''yangs

yangs

zi

zi'''

for i insoup.li.descendants:print(i)#parent属性获取父节点,parents获取祖先节点,返回生成器

'''

yangs zi你好!!! hello world'''

for i insoup.li.parent:print(i)

soup.li.parents#next_sibling属性返回下一个兄弟节点,previous_sibling返回上一个兄弟节点, 注意换行符也是一个节点,所以有时候在获取兄弟节点是通常是字符串或者空白

soup.a.next_sibling

soup.a.previous_sibling#next_siblings和previous_sibling分别返回前面和后面的所有兄弟节点,返回生成器

soup.a.next_siblings

soup.a.previous_siblings#next_element和previous_element属性获取下一个被解析的对象,或者上一个

soup.a.next_element

soup.a.previous_element#next_elements和previous_elements迭代器向前或者后访问文档解析内容

soup.a.next_elements

soup.a.previous_elements

二、方法选择器

from bs4 importBeautifulSoupif __name__ == '__main__':

html= '''

'''soup= BeautifulSoup(html, features="lxml")print(soup.find_all("li")) #[ yangs zi, 你好!!!, hello world]

#限制输出数量

print(soup.find_all("li", limit=1)) #[

yangs zi]

print(soup.find_all("li", class_='last-li')) #[

yangs zi, hello world]

print(soup.find_all("li", attrs={"class": 'aaa last-li'})) #[

yangs zi]

print(soup.find_all("li", attrs={"class": ['last-li aaa']})) #[]

print(soup.find_all("li", id = 'two')) #[

你好!!!]

print(soup.find_all("li", id = 'two')[0].string) #你好!!!

find( name , attrs , recursive , text , **kwargs ):它返回的是单个元素,也就是第一个匹配的元素,类型依然是tag类型参数同find_all()一样

另外还有许多查询方法,其用法和前面介绍的find_all()方法完全相同,只不过查询范围不同,参数也一样

find_parents(name , attrs , recursive , text , **kwargs )和find_parent(name , attrs , recursive , text , **kwargs ):前者返回所有祖先节点,后者返回直接父节点

find_next_siblings(name , attrs , recursive , text , **kwargs )和find_next_sibling(name , attrs , recursive , text , **kwargs ):对当前tag后面的节点进行迭代,前者返回后面的所有兄弟节点,后者返回后面第一个兄弟节点

find_previous_siblings(name , attrs , recursive , text , **kwargs )和find_previous_sibling(name , attrs , recursive , text , **kwargs ):对当前tag前面的节点进行迭代,前者返回前面的所有兄弟节点,后者返回前面的第一个兄弟节点

find_all_next(name , attrs , recursive , text , **kwargs )和find_next(name , attrs , recursive , text , **kwargs ):对当前tag之后的tag和字符串进行迭代,前者返回所有符合条件的节点,后者返回第一个符合条件的节点

find_all_previous()和find_previous():对当前tag之前的tag和字符串进行迭代,前者返回节点后所有符合条件的节点,后者返回第一个符合条件的节点

三、CSS选择器

from bs4 importBeautifulSoupif __name__ == '__main__':

html= '''

'''soup= BeautifulSoup(html, features="lxml")print(soup.select("li")) #[ yangs zi, 你好!!!, hello world]

print(soup.select("li a")) #[yangs, hello world]

print(soup.select("li.aaa a")) #[yangs]

print(soup.select("li[class~=aaa] a")) #[yangs]

print(soup.select("li a[href='2.html']")) #[hello world]

print(soup.select("li a[href='2.html']")[0].string) #hello world

#匹配开头

print(soup.select("li a[href^='1']")) #[yangs]

##匹配值的结尾

print(soup.select("li a[href$='.html']")) #[yangs, hello world]

##模糊匹配

print(soup.select("li a[href*='.h']")) #[yangs, hello world]

四、tag修改方法

from bs4 importBeautifulSoupif __name__ == '__main__':

html= '''

'''soup= BeautifulSoup(html, features="lxml")

soup.li.a.string= "样子"

print(soup.li) #

样子 zi

soup.li.a.append(", 你好")print(soup.li) #

样子, 你好 zi

其他方法:

insert()将元素插入到指定的位置

inert_before()在当前tag或文本节点前插入内容

insert_after()在当前tag或文本节点后插入内容

clear()移除当前tag的内容

extract()将当前tag移除文档数,并作为方法结果返回

prettify()将Beautiful Soup的文档数格式化后以Unicode编码输出,tag节点也可以调用

get_text()输出tag中包含的文本内容,包括子孙tag中的内容

soup.original_encoding 属性记录了自动识别的编码结果

from_encoding:参数在创建BeautifulSoup对象是可以用来指定编码,减少猜测编码的运行速度

#解析部分文档,可以使用SoupStrainer类来创建一个内容过滤器,它接受同搜索方法相同的参数

五、异常处理

#Beautiful Soup异常处理:

HTMLParser.HTMLParseError:malformed     start    tag

HTMLParser.HTMLParseError:bad   end   tag 这个两个异常都是解析器引起的,解决方法是安装lxml或者html5lib

六、58同城bs4数据抓取案例

from bs4 importBeautifulSoupimportrequestsdefget_58city():

url= "https://cd.58.com/job/"headers={"User-Agent": "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0"}try:

res= requests.get(url, headers=headers, verify=False)

html= res.content.decode("utf-8")exceptConnectionError as e:print(e)try:

soup= BeautifulSoup(html, "lxml")

result= soup.select("li.job_item", limit=10)exceptRuntimeError as e:print(e)

return_data=[]for site inresult:

title= site.select("span.name")[0].get_text()

money= site.select("p.job_salary")[0].get_text()

good_item= site.select("div.job_wel > span")

good=[]for i ingood_item:

good.append(i.get_text())

return_data.append({"title": title, "money": money, "good": good})returnreturn_dataif __name__ == '__main__':

data=get_58city()print(data)#[{'title': '诚聘网约车司机', 'money': '8000-16000元/月', 'good': ['广告', '五险一金', '周末双休', '交通补助', '加班补助']}, {'title': '房产销售+高薪等你挑战', 'money': '8000-15000元/月', 'good': ['五险一金', '包住', '年底双薪', '房补', '话补']}, {'title': '成都富士康工资高普工免费招聘', 'money': '4000-6500元/月', 'good': ['五险一金', '包吃', '包住', '周末双休', '年底双薪']}, {'title': '网络销售8K+五险+奖金', 'money': '8000-15000元/月', 'good': ['五险一金', '年底双薪']}, {'title': '周末双休+饭补+普工包吃住', 'money': '3700-4500元/月', 'good': ['年底双薪', '饭补', '周末双休', '房补', '五险一金']}, {'title': '金融城冠军门店招聘精英', 'money': '20000-32000元/月', 'good': []}, {'title': '高薪高提+全城招募+双休', 'money': '8000-16000元/月', 'good': ['周末双休', '年底双薪', '五险一金']}, {'title': '五险+销售代表+无责双休', 'money': '6000-12000元/月', 'good': ['五险一金', '周末双休', '年底双薪', '话补']}, {'title': '急聘长期保底5千足疗师', 'money': '5000-8000元/月', 'good': ['包吃', '包住', '加班补助']}, {'title': '58+汽车分期+商务顾问', 'money': '6000-8000元/月', 'good': ['五险一金']}]

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值