Selenium之Xpath VS CSS Selector

在这里插入图片描述

UI自动化测试常用的定位方式
  • driver.find_element_by_xpath()
  • driver.find_element_by_css_selector()

两种定位方式比较:
  • xpath:代码量多,不易维护
  • css_selector:代码量少,简单易维护

区别:
  • xpath可以直接角标定位,CSS Selector不可以;
  • 可以向上取父元素也可以向下取子元素,CSS Selector只能向下取;
  • 可以通过标签的文本进行定位,CSS Selector不可以;

什么时候用xpath/css?

在网上查找答案,JeffC的观点是,按他的经验,首先10%通过ID定位,其次80%通过CSS Selector定位,剩下10%通过Xpath定位。

My general locator strategy is ID first, CSS selector for everything else. When nothing else works I use XPath. It will vary from site to site but in my experience, IDs are maybe ~10% of my locators. CSS selectors are probably ~80% and the last 10% is XPath. I generally use XPath for when I need to locate an element by the contained text and very rarely DOM traversal. An example of my XPath usage might be I need to find an element in a TABLE relative to a row label, e.g. the price of cheese in a table row where the first cell contains “cheese” and the third cell contains the price.
详见stackoverflow网站中 cssSelector vs XPath for selenium话题


个人建议:

研发平常可能为了标签变得更好看,改变标签的层级关系,所以使用层级关系定位受研发修改影响大,不稳定;
另一方面,页面除非大改版,是不会改变标签属性的;因此建议通过属性定位。

什么时候通过级关系定位?
标签没有属性,无法通过属性定位元素。此时可以通过找到所有这个标签,然后取角标(Xpath)找到元素。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用Selenium库和XPATHCSS选择器爬取携程网信息的示例: ```python from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC driver = webdriver.Chrome() driver.get("https://www.ctrip.com/") # 使用CSS选择器定位输入框并输入关键字 input_box = driver.find_element_by_css_selector("#searchHotelLevelSelect") input_box.send_keys("上海") # 使用CSS选择器定位搜索按钮并点击 search_button = driver.find_element_by_css_selector("#searchHotelLevelSelectBtn") search_button.click() # 等待搜索结果加载完成 wait = WebDriverWait(driver, 10) wait.until(EC.visibility_of_element_located((By.CSS_SELECTOR, ".list_mod2"))) # 使用XPATH选择器定位酒店列表并获取信息 hotel_list = driver.find_elements_by_xpath("//ul[@class='hotel_item']/li") for hotel in hotel_list: name = hotel.find_element_by_xpath(".//h2/a").text address = hotel.find_element_by_xpath(".//p[@class='address']/span[1]")text print(name, address) driver.quit() ``` 在上面的示例中,我们使用Selenium库和XPATHCSS选择器来爬取携程网上的酒店信息。首先,我们使用CSS选择器定位搜索框并输入关键字“上海”,然后使用CSS选择器定位搜索按钮并点击。接下来,我们使用WebDriverWait等待搜索结果加载完成,然后使用XPATH选择器定位酒店列表,并使用find_element_by_xpath方法和相对路径来获取酒店名称和地址信息。最后,我们遍历酒店列表并打印出酒店名称和地址信息。 需要注意的是,爬取网站的时候要遵守相关法律法规和网站的爬虫规则,以免引起不必要的法律问题。同时,还需要注意反爬虫机制,如设置User-Agent、使用代理等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值