from selenium import webdriver #从这个selenium导入web的引擎或者接口
import time
duixiang = webdriver.Chrome(r'C:\Users\mozat\Desktop\chromedriver_win32\chromedriver.exe')
duixiang.implicitly_wait(5)
duixiang.get('http://f.python3.vip/webauto/sample1.html')
yuansu = duixiang.find_element_by_css_selector('.plant') #找出页面class元素是plant的第一个标签
print(yuansu.get_attribute('outerHTML')) #打印整个元素的HTML内容
print(yuansu.get_attribute('innerHTML'))#取class=plant的整个元素的HTML内容 比如<div>下面的数据</div>
print('********')
yuansu = duixiang.find_elements_by_css_selector('.plant')#找出页面class元素是plant的所有标签
for i in yuansu:
print(i.get_attribute('outerHTML')) #打印整个元素的HTML内容
print('------')
yuansu = duixiang.find_element_by_css_selector('span') #找出页面第一个<span>标签
print(yuansu.get_attribute('outerHTML')) #打印整个元素的HTML内容
print(yuansu.get_attribute('innerHTML')) #打印标签下的标签内容
print('!!!')
yuansu = duixiang.find_element_by_css_selector('#container') #找出页面id元素是container的第一个标签
print(yuansu.get_attribute('outerHTML'))
duixiang.quit()
页面代码
<head>
<meta charset="UTF-8">
<title>白月黑羽测试网页1</title>
<style>
.animal {color: red;}
</style>
</head>
<body>
<div class="plant"><span>土豆</span></div>
<div class="plant"><span>洋葱</span></div>
<div class="plant"><span>白菜</span></div>
<div class="animal"><span>狮子</span></div>
<div class="animal"><span>老虎</span></div>
<div class="animal"><span>山羊</span></div>
<input type="text" id='searchtext' />
<div id='container'>
<div id='layer1'>
<div id='inner11'>
<span>内层11</span>
</div>
<div id='inner12'>
<span>内层12</span>
</div>
</div>
<div id='layer2'>
<div id='inner21'>
<span>内层21</span>
</div>
</div>
</div>
<div id='bottom'>
<div class='footer1'>
<span class='copyright'>版权</span>
<span class='date'>发布日期:2018-03-03</span>
</div>
<div class='footer2'>
<span>备案号
<a href="http://www.miitbeian.gov.cn">苏ICP备88885574号</a>
</span>
</div>
</div>
</body>
from selenium import webdriver
duixiang = webdriver.Chrome(r'C:\Users\mozat\Desktop\chromedriver_win32\chromedriver.exe')
duixiang.implicitly_wait(5)
duixiang.get('http://f.python3.vip/webauto/test1.html')
china =duixiang.find_element_by_id('china')#寻找id是china的元素
china_yuansu = china.find_elements_by_xpath('.//p') #在刚找到的hina的元素里面需要里面的p元素 ,必须要加这个. 如果不加的就是代表在整个页面找了
for i in china_yuansu:
print("----")
print(i.get_attribute('outerHTML'))