(干货)你知道python爬虫定位网页元素有几种方式嘛,今天带你一一了解。

203 篇文章 15 订阅

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理

以下文章来源于腾讯云 作者:拓荒者

( 想要学习Python?Python学习交流群:1039649593,满足你的需求,资料都已经上传群文件流,可以自行下载!还有海量最新2020python学习资料。 )
在这里插入图片描述

在做爬虫的过程中,网页元素的定位是比较重要的一环,本文总结了python爬虫中比较常用的三种定位网页元素的方式。

1.普通的BeautifulSoup find系列操作

2.BeautifulSoup css选择器

  1. xpath

这三种方式灵活运用,再配合上正则表达式,没有什么网页能难倒你啦。

我们以获取豆瓣电影top250第一页的电影标题为例来比较:

import requests
 from bs4 import BeautifulSoup
 from lxml import etree
 
 # 通过find定位标签
 # BeautifulSoup文档:https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html
 def bs_parse_movies(html):
     movie_list = []
     soup = BeautifulSoup(html, "lxml")
     # 查找所有class属性为hd的div标签
     div_list = soup.find_all('div', class_='hd')
     # 获取每个div中的a中的span(第一个),并获取其文本
     for each in div_list:
         movie = each.a.span.text.strip()
         movie_list.append(movie)
 
     return movie_list
 
 # css选择器定位标签
 # 更多ccs选择器语法:http://www.w3school.com.cn/cssref/css_selectors.asp
 # 注意:BeautifulSoup并不是每个语法都支持
 def bs_css_parse_movies(html):
     movie_list = []
     soup = BeautifulSoup(html, "lxml")
     # 查找所有class属性为hd的div标签下的a标签的第一个span标签
     div_list = soup.select('div.hd > a > span:nth-of-type(1)')
     # 获取每个span的文本
     for each in div_list:
         movie = each.text.strip()
         movie_list.append(movie)
 
     return movie_list
 
 # XPATH定位标签
 # 更多xpath语法:https://blog.csdn.net/gongbing798930123/article/details/78955597
 def xpath_parse_movies(html):
     et_html = etree.HTML(html)
     # 查找所有class属性为hd的div标签下的a标签的第一个span标签
     urls = et_html.xpath("//div[@class='hd']/a/span[1]")
 
     movie_list = []
     # 获取每个span的文本
     for each in urls:
         movie = each.text.strip()
         movie_list.append(movie)
 
     return movie_list
 
 def get_movies():
     headers = {
         'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.82 Safari/537.36',
         'Host': 'movie.douban.com'
     }
 
     link = 'https://movie.douban.com/top250'
     r = requests.get(link, headers=headers, timeout=10)
     print("响应状态码:", r.status_code)
     if 200 != r.status_code:
         return None
 
     # 三种定位元素的方式:
 
     # 普通BeautifulSoup find
     return bs_parse_movies(r.text)
     # BeautifulSoup css select
     return bs_css_parse_movies(r.text)
     # xpath
     return xpath_parse_movies(r.text)
 
 movies = get_movies()
 print(movies)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值