Selenium下面使用css和xpath

from selenium import  webdriver #从这个selenium导入web的引擎或者接口
import time
duixiang = webdriver.Chrome(r'C:\Users\mozat\Desktop\chromedriver_win32\chromedriver.exe')
duixiang.implicitly_wait(5)
duixiang.get('http://f.python3.vip/webauto/sample1.html')

yuansu = duixiang.find_element_by_css_selector('.plant') #找出页面class元素是plant的第一个标签
print(yuansu.get_attribute('outerHTML')) #打印整个元素的HTML内容
print(yuansu.get_attribute('innerHTML'))#取class=plant的整个元素的HTML内容  比如<div>下面的数据</div>

print('********')
yuansu = duixiang.find_elements_by_css_selector('.plant')#找出页面class元素是plant的所有标签
for i in yuansu:
    print(i.get_attribute('outerHTML')) #打印整个元素的HTML内容
print('------')
yuansu = duixiang.find_element_by_css_selector('span') #找出页面第一个<span>标签
print(yuansu.get_attribute('outerHTML')) #打印整个元素的HTML内容
print(yuansu.get_attribute('innerHTML')) #打印标签下的标签内容
print('!!!')

yuansu = duixiang.find_element_by_css_selector('#container')  #找出页面id元素是container的第一个标签
print(yuansu.get_attribute('outerHTML'))

duixiang.quit()

页面代码

<head>
    <meta charset="UTF-8">
    <title>白月黑羽测试网页1</title>

    <style>
        .animal {color: red;}
    </style>
</head>

<body>
    
    <div class="plant"><span>土豆</span></div>
    <div class="plant"><span>洋葱</span></div>
    <div class="plant"><span>白菜</span></div>

    <div class="animal"><span>狮子</span></div>
    <div class="animal"><span>老虎</span></div>
    <div class="animal"><span>山羊</span></div>

    <input  type="text" id='searchtext' />

    <div id='container'>
        
        <div id='layer1'>
            <div id='inner11'>
                <span>内层11</span>
            </div>
            <div id='inner12'>
                <span>内层12</span>
            </div>
        </div>

        <div id='layer2'>
            <div id='inner21'>
                <span>内层21</span>
            </div>
        </div>

    </div>

    
    <div id='bottom'>
        <div class='footer1'>
            <span class='copyright'>版权</span>
            <span class='date'>发布日期:2018-03-03</span>
        </div>
        <div class='footer2'>
            <span>备案号
                <a href="http://www.miitbeian.gov.cn">苏ICP备88885574号</a>
            </span>
        </div>        
    </div>         

</body>

from selenium import webdriver
duixiang = webdriver.Chrome(r'C:\Users\mozat\Desktop\chromedriver_win32\chromedriver.exe')
duixiang.implicitly_wait(5)
duixiang.get('http://f.python3.vip/webauto/test1.html')

china =duixiang.find_element_by_id('china')#寻找id是china的元素

china_yuansu = china.find_elements_by_xpath('.//p') #在刚找到的hina的元素里面需要里面的p元素 ,必须要加这个. 如果不加的就是代表在整个页面找了

for i in china_yuansu:
    print("----")
    print(i.get_attribute('outerHTML')) 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值