Python爬虫——Selenium 定位节点及获取节点信息

Python爬虫——Selenium 定位节点及获取节点信息

1、定位节点

当我们想要操作一个节点时,必须先找到这个节点,通过 Selenium 提供的定位节点的方法可以获取到想要的节点,获取节点后可以选择是执行下一步动作(如填充表单、模拟点击等)还是提取数据。

Selenium 4 之前使用 find_element_by_*() 方法定位节点,Selenium 4之后使用 find_element()方法。

使用find_element_by_*() 方法只需导入 from selenium import webdriver,使用 find_element() 方法除了导入 from selenium import webdriver ,还要导入 from selenium.webdriver.common.by import By。

Selenium4 提供了 8 种定位(单)节点的方法,如下表所示:

方法说明
find_element(By.ID)通过 id 属性值定位节点
find_element(By.NAME)通过 name 属性值定位节点
find_element(By.CLASS_NAME)通过 class 属性值定位节点
find_element(By.TAG_NAME)通过 tag 标签名定位节点
find_element(By.LINK_TEXT)通过<a>标签内文本定位节点,即精准定位。
find_element(By.PARTIAL_LINK_TEXT)通过<a>标签内部分文本定位节点,即模糊定位。
find_element(By.XPATH)通过 xpath 表达式定位节点
find_element(By.CSS_SELECTOR)通过 css 选择器定位节点

find_element找的是第一个符合条件的节点,

如果要查找所有符合条件的标签,需要用 find_elements,find_elements 的返回值是列表类型,可以用for循环遍历里面的节点。

定位节点使用实例

from selenium import webdriver
from selenium.webdriver.common.by import By

# 创建浏览器对象并访问网站
browser = webdriver.Chrome()
url = "https://www.baidu.com"
browser.get(url)

# 根据 id 定位
browser.find_element(By.ID,'su')

# 根据 name 定位
# 返回第一个元素
browser.find_element(By.CLASS_NAME,'fenlei')
# 返回所有元素
browser.find_elements(By.CLASS_NAME,'fenlei')

# 根据 class 定位
browser.find_element(By.NAME,'title-text c-font-medium c-color-t')
browser.find_elements(By.NAME,'title-text c-font-medium c-color-t')

# 根据标签名称定位
browser.find_element(By.TAG_NAME,'input')
browser.find_elements(By.TAG_NAME,'input')

# 使用链接文本定位超链接
browser.find_element(By.LINK_TEXT,'index')
browser.find_elements(By.LINK_TEXT,'index')
browser.find_element(By.PARTIAL_LINK_TEXT,'index')
browser.find_elements(By.PARTIAL_LINK_TEXT,'index')

# 使用 xpath 定位
browser.find_element(By.XPATH,'//input[@id="su"]')
browser.find_elements(By.XPATH,'//input[@id="su"]')

# 使用 CSS 选择器定位
browser.find_element(By.CSS_SELECTOR,'#su')
browser.find_elements(By.CSS_SELECTOR,'#su')

# 关闭浏览器
browser.close()

2、获取节点信息

使用get_attribute()方法获取节点中指定属性的属性值,参数为节点中的属性

from selenium import webdriver
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
url = "https://www.baidu.com"
browser.get(url)

# 定位节点
element = browser.find_element(By.ID,'su')

# 获取class的属性值
print(element.get_attribute('class'))
# 获取id的属性值
print(element.get_attribute('id'))
# 获取type的属性值
print(element.get_attribute('type'))
# 获取value的属性值
print(element.get_attribute('value'))

browser.close()

定位到的节点:

在这里插入图片描述

执行结果:

bg s_btn
su
submit
百度一下

使用 .tag_name 方法获取节点的标签名

from selenium import webdriver
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
url = "https://www.baidu.com"
browser.get(url)

# 定位节点
element = browser.find_element(By.ID,'su')
# 获取节点的标签名
print(element.tag_name)

执行结果:

input

使用 .text 获取节点文本,没有文本则不返回

from selenium import webdriver
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
url = "https://www.baidu.com"
browser.get(url)
# 根据a标签的文本定位节点
element1 = browser.find_element(By.LINK_TEXT,"地图")
# 获取节点内容
print(element1.text)
browser.close()

定位的a标签:

在这里插入图片描述

执行结果:

地图

使用.size 获取节点的大小(也就是宽高)

from selenium import webdriver
from selenium.common.exceptions import NoSuchElementException

browser = webdriver.Chrome()
url = "https://www.baidu.com"
browser.get(url)

element1 = browser.find_element_by_link_text("地图")
# 获取节点的宽高
print(element1.size)
browser.close()

执行结果:

{'height': 23, 'width': 26}
  • 5
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
### 回答1: 为了开发 Python 爬虫,你需要先学习 Python 编程语言。一旦你熟悉了 Python 的基础知识,你就可以使用 Python 标准库中的 `urllib` 模块来打开和读取网页内容。但是,如果你要爬取的网站使用了 JavaScript,你就需要使用更高级的库,比如 `Selenium` 或者 `Beautiful Soup`。这些库可以解析网页并提取你感兴趣的信息。 如果你想爬取大量的数据,你可能需要考虑使用分布式爬虫。这种爬虫由多个节点组成,可以同时爬取多个网站。有许多 Python 库可以帮助你实现分布式爬虫,比如 `Scrapy` 和 `Apache Nutch`。 总之,开发 Python 爬虫需要学习 Python 编程语言,了解网页结构和数据提取方法,并选择合适的库和工具。 ### 回答2: Python爬虫的开发分为以下几个步骤: 1. 确定需求和目标:首先需要明确需要爬取的网站或数据,并确定所需的信息和数据类型。这可以帮助我们选择合适的爬虫框架和工具。 2. 安装Python环境和依赖库:确保在本地安装Python解释器,并安装相关的第三方库,比如Scrapy、Beautiful Soup、Requests等。 3. 分析网站结构:通过查看网页源代码,分析网站的结构和数据位置。这可以帮助我们制定爬取策略和选择合适的解析方法。 4. 编写爬虫代码:使用选择的爬虫框架或库,编写爬虫代码。代码中需要包含以下几个核心部分: - 发送请求:使用HTTP请求库发送请求,获取网页内容。 - 解析网页:使用HTML解析库解析网页,提取需要的数据。 - 保存数据:将提取到的数据保存到本地文件或数据库中。 5. 调试和测试:运行爬虫代码,检查是否能够正确提取和保存数据。如果出现问题,通过日志和调试工具进行排查和修复。 6. 遵守爬虫规则和道德:在开发爬虫的过程中,需要遵守网站的爬虫规则和道德准则。避免给网站带来过大的压力或侵犯用户隐私。 7. 定期维护和更新:定期检查和更新爬虫代码,保持其正常运行并适应网站结构的变化。 总结来说,开发Python爬虫需要确定需求和目标、安装环境和依赖库、分析网站结构、编写爬虫代码、调试和测试、遵守规则和道德、定期维护和更新等步骤。熟悉并掌握这些步骤,可以帮助我们开发高效、可靠的Python爬虫

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

万里顾—程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值