python爬虫bs4 xpath数据解析

数据解析

在爬取网页后,通常需要将爬取到的内容进行分割提取,拿到我们想要的文本内容或者相应的地址url。

bs4数据解析

安装bs4模块,并导入

from bs4 import BeautifulSoup

步骤详情见注释

fp =open('/.test.html','r',encoding='utf-8')
#将本地的html文档中的数据记载到该对象中
soup =BeautifulSoup(fp,'lxml')
print(soup.a)# 结果拿到a标签内容           soup.tagname 返回的是HTML中第一次出现的tagname标签
print(soup.div)#拿到第一个div标签

print(soup.find('div'))#相当于soup.div
print(soup.find('div',class_='xxx')) #定位class=xxx的div标签
print(soup.find_all('a'))#  返回所有的a标签



#返回的是一个列表 select('某种选择器(id ,class,标签..选择器)')

#层级选择器
print(soup.select('.tang>ul>li>a')[0])#  tang下面的ul下面的li标签下面的a标签的第一个
print(soup.select('.tang>ul> a')[0])#  空格表示多个层级  直接难道a标签

#获取标签中的文本数据soup.a.text/string/get_text()
print(soup.select('.tang>ul> a')[0].text)
print(soup.select('.tang>ul> a')[0].string)#只获取直系
print(soup.select('.tang>ul> a')[0].get_text())  # text/get_text获取标签中所有的文本内容  (即使不是直系)
#获取标签属性
print(soup.select('.tang>ul> a')[0]['href'])#获取href值

xpath模块

xpath解析
1 实例化一个etree对象,且需要将被解析的页面源码数据加载到该对象中
2 调用etree对象中的xpath表达式实现标签的定位和内容的捕获
pip install lxml
from lxml import etree
1 将本地的html文档中的源码数据加载到etree中
etree.parse(filePath)
2可以将互联网上获取的源码数据加载到该对象中
etree.HTML(‘page_text’)
xpath(‘xpath表达式’)

from lxml import etree


tree=etree.parse('test.html')
#最左侧/表示从根节点开始
print(tree.xpath('/html/head/title'))# 列表存储对象对应于title标签的文本内容
r=tree.xpath('/html/body/div')#假如文件中有三组div,则列表中有三个对象
r1=tree.xpath('/html//div')#//表示多个层级
r2 = tree.xpath('//div')  #//表示从任意位置开始定位
r3 = tree.xpath('//div[@class="song"]')#  属性为song的div
r4 = tree.xpath('//div[@class="song"]/p[3]')#  属性为song的div下的第三个p标签
r5 = tree.xpath('//div[@class="tang"]//li[5]/a/text()')#第五个li标签下的a标签的文本 列表形式
r6= tree.xpath('//div[@class="tang"]//li[5]/a/text()')[0]#第五个li标签下的a标签的文本 文本
r7 = tree.xpath('//div[@class="tang"]//li[5]//text()')#非直系文本内容
r8 = tree.xpath('//div[@class="song"]/img/@src')#img标签下的地址thon

爬取起点月票榜单

import requests
from lxml import etree

headers={
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.141 Safari/537.36'}

url='https://www.qidian.com/rank/yuepiao'
page_text=requests.get(url=url,headers=headers).text
print(page_text)
tree=etree.HTML(page_text)
li_list=tree.xpath('//div[@main-content-wrap]//div[@rank-body]//div[@book-img-text]/ul/li')

fp=open('qidian.txt','w',encoding='utf-8')
for li in li_list:

    title=li.xpath('./div[2]/h4/a/text()')
    print(title)
    fp.write(title+'\n')

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值