注:最近重新拾起python,开始学习爬虫,想要做一些有趣的事,而为什么要学习selenium,是因为有一次想要爬qq空间的照片,但是苦于无法通过验证,经过百度,发现了这个自动化测试工具。
建议学习selenium2,要问为啥不学习selenium3,是因为selenium3,遍地是坑,而且资料,解决方法很少,就一个浏览器驱动与浏览器版本就得搞好长时间。
Selenium是一个自动化测试工具,利用它可以驱动浏览器执行特定的动作,如点击、下拉等操作,同时还可以获取浏览器当前呈现的页面的源代码,做到可见即可爬。对于一些JavaScript动态渲染的页面来说,此种抓取方式非常有效。本节中,就让我们来感受一下它的强大之处吧。
1. 准备工作
本节以Chrome为例来讲解Selenium的用法。在开始之前,请确保已经正确安装好了Chrome浏览器并配置好了ChromeDriver。另外,还需要正确安装好Python的Selenium库,详细的安装和配置过程可以参考第1章。
2. 基本使用
准备工作做好之后,首先来大体看一下Selenium有一些怎样的功能。示例如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
from
selenium
import
webdriver
from
selenium
.
webdriver
.
common
.
by
import
By
from
selenium
.
webdriver
.
common
.
keys
import
Keys
from
selenium
.
webdriver
.
support
import
expected_conditions
as
EC
from
selenium
.
webdriver
.
support
.
wait
import
WebDriverWait
browser
=
webdriver
.
Chrome
(
)
try
:
browser
.
get
(
'https://www.baidu.com'
)
input
=
browser
.
find_element_by_id
(
'kw'
)
input
.
send_keys
(
'Python'
)
input
.
send_keys
(
Keys
.
ENTER
)
wait
=
WebDriverWait
(
browser
,
10
)
wait
.
until
(
EC
.
presence_of_element_located
(
(
By
.
ID
,
'content_left'
)
)
)
print
(
browser
.
current_url
)
print
(
browser
.
get_cookies
(
)
)
print
(
browser
.
page_source
)
finally
:
browser
.
close
(
)
|
运行代码后发现,会自动弹出一个Chrome浏览器。浏览器首先会跳转到百度,然后在搜索框中输入Python,接着跳转到搜索结果页,如图7-1所示。
图7-1 运行结果
搜索结果加载出来后,控制台分别会输出当前的URL、当前的Cookies和网页源代码:
1
2
3
|
https
:
//www.baidu.com/s?ie=utf-8&f=8&rsv_bp=0&rsv_idx=1&tn=baidu&wd=Python&rsv_pq=c94d0df9000a72d0&rsv_t=07099xvun1ZmC0bf6eQvygJ43IUTTUOl5FCJVPgwG2YREs70GplJjH2F%2BCQ&rqlang=cn&rsv_enter=1&rsv_sug3=6&rsv_sug2=0&inputT=87&rsv_sug4=87
[
{
'secure'
:
False
,
'value'
:
'B490B5EBF6F3CD402E515D22BCDA1598'
,
'domain'
:
'.baidu.com'
,
'path'
:
'/'
,
'httpOnly'
:
False
,
'name'
:
'BDORZ'
,
'expiry'
:
1491688071.707553
}
,
{
'secure'
:
False
,
'value'
:
'22473_1441_21084_17001'
,
'domain'
:
'.baidu.com'
,
'path'
:
'/'
,
'httpOnly'
:
False
,
'name'
:
'H_PS_PSSID'
}
,
{
'secure'
:
False
,
'value'
:
'12883875381399993259_00_0_I_R_2_0303_C02F_N_I_I_0'
,
'domain'
:
'.www.baidu.com'
,
'path'
:
'/'
,
'httpOnly'
:
False
,
'name'
:
'__bsi'
,
'expiry'
:
1491601676.69722
}
]
<
!
DOCTYPE
html
>
<
!
--
STATUS
OK
--
>
.
.
.
<
/
html
>
|
源代码过长,在此省略。可以看到,我们得到的当前URL、Cookies和源代码都是浏览器中的真实内容。
所以说,如果用Selenium来驱动浏览器加载网页的话,就可以直接拿到JavaScript渲染的结果了,不用担心使用的是什么加密系统。
下面来详细了解一下Selenium的用法。
3. 声明浏览器对象
Selenium支持非常多的浏览器,如Chrome、Firefox、Edge等,还有Android、BlackBerry等手机端的浏览器。另外,也支持无界面浏览器PhantomJS。
此外,我们可以用如下方式初始化:
1
2
3
4
5
6
7
|
from
selenium
import
webdriver
browser
=
webdriver
.
Chrome
(
)
browser
=
webdriver
.
Firefox
(
)
browser
=
webdriver
.
Edge
(
)
browser
=
webdriver
.
PhantomJS
(
)
browser
=
webdriver
.
Safari
(
)
|
这样就完成了浏览器对象的初始化并将其赋值为browser
对象。接下来,我们要做的就是调用browser
对象,让其执行各个动作以模拟浏览器操作。
4. 访问页面
我们可以用get()
方法来请求网页,参数传入链接URL即可。比如,这里用get()
方法访问淘宝,然后打印出源代码,代码如下:
1
2
3
4
5
6
|
from
selenium
import
webdriver
browser
=
webdriver
.
Chrome
(
)
browser
.
get
(
'https://www.taobao.com'
)
print
(
browser
.
page_source
)
browser
.
close
(
)
|
运行后发现,弹出了Chrome浏览器并且自动访问了淘宝,然后控制台输出了淘宝页面的源代码,随后浏览器关闭。
通过这几行简单的代码,我们可以实现浏览器的驱动并获取网页源码,非常便捷。
5. 查找节点
Selenium可以驱动浏览器完成各种操作,比如填充表单、模拟点击等。比如,我们想要完成向某个输入框输入文字的操作,总需要知道这个输入框在哪里吧?而Selenium提供了一系列查找节点的方法,我们可以用这些方法来获取想要的节点,以便下一步执行一些动作或者提取信息。
单个节点
比如,想要从淘宝页面中提取搜索框这个节点,首先要观察它的源代码,如图7-2所示。
图7-2 源代码
可以发现,它的id
是q
,name
也是q
。此外,还有许多其他属性,此时我们就可以用多种方式获取它了。比如,find_element_by_name()
是根据name
值获取,find_element_by_id()
是根据id
获取。另外,还有根据XPath、CSS选择器等获取的方式。
我们用代码实现一下:
1
2
3
4
5
6
7
8
9
|
from
selenium
import
webdriver
browser
=
webdriver
.
Chrome
(
)
browser
.
get
(
'https://www.taobao.com'
)
input_first
=
browser
.
find_element_by_id
(
'q'
)
input_second
=
browser
.
find_element_by_css_selector
(
'#q'
)
input_third
=
browser
.
find_element_by_xpath
(
'//*[@id="q"]'
)
print
(
input_first
,
input_second
,
input_third
)
browser
.
close
(
)
|
这里我们使用3种方式获取输入框,分别是根据ID、CSS选择器和XPath获取,它们返回的结果完全一致。运行结果如下:
1
2
3
|
<
selenium
.
webdriver
.
remote
.
webelement
.
WebElement
(
session
=
"5e53d9e1c8646e44c14c1c2880d424af"
,
element
=
"0.5649563096161541-1"
)
>
<
selenium
.
webdriver
.
remote
.
webelement
.
WebElement
(
session
=
"5e53d9e1c8646e44c14c1c2880d424af"
,
element
=
"0.5649563096161541-1"
)
>
<
selenium
.
webdriver
.
remote
.
webelement
.
WebElement
(
session
=
"5e53d9e1c8646e44c14c1c2880d424af"
,
element
=
"0.5649563096161541-1"
)
>
|
可以看到,这3个节点都是WebElement
类型,是完全一致的。
这里列出所有获取单个节点的方法:
1
2
3
4
5
6
7
8
|
find_element_by_id
find_element_by_name
find_element_by_xpath
find_element_by_link_text
find_element_by_partial_link_text
find_element_by_tag_name
find_element_by_class_name
find_element_by_css_selector
|
另外,Selenium还提供了通用方法find_element()
,它需要传入两个参数:查找方式By
和值。实际上,它就是find_element_by_id()
这种方法的通用函数版本,比如find_element_by_id(id)
就等价于find_element(By.ID, id)
,二者得到的结果完全一致。我们用代码实现一下:
1
2
3
4
5
6
7
8
|
from
selenium
import
webdriver
from
selenium
.
webdriver
.
common
.
by
import
By
browser
=
webdriver
.
Chrome
(
)
browser
.
get
(
'https://www.taobao.com'
)
input_first
=
browser
.
find_element
(
By
.
ID
,
'q'
)
print
(
input_first
)
browser
.
close
(
)
|
实际上,这种查找方式的功能和上面列举的查找函数完全一致,不过参数更加灵活。
多个节点
如果查找的目标在网页中只有一个,那么完全可以用find_element()
方法。但如果有多个节点,再用find_element()
方法查找,就只能得到第一个节点了。如果要查找所有满足条件的节点,需要用find_elements()
这样的方法。注意,在这个方法的名称中,element多了一个s,注意区分。
比如,要查找淘宝左侧导航条的所有条目,如图7-3所示。
图7-3 导航栏
就可以这样来实现:
1
2
3
4
5
6
7
|
from
selenium
import
webdriver
browser
=
webdriver
.
Chrome
(
)
browser
.
get
(
'https://www.taobao.com'
)
lis
=
browser
.
find_elements_by_css_selector
(
'.service-bd li'
)
print
(
lis
)
browser
.
close
(
)
|
运行结果如下:
1
|
[
<
selenium
.
webdriver
.
remote
.
webelement
.
WebElement
(
session
=
"c26290835d4457ebf7d96bfab3740d19"
,
element
=
"0.09221044033125603-1"
)
>
,
<
selenium
.
webdriver
.
remote
.
webelement
.
WebElement
(
session
=
"c26290835d4457ebf7d96bfab3740d19"
,
element
=
"0.09221044033125603-2"
)
>
,
<
selenium
.
webdriver
.
remote
.
webelement
.
WebElement
(
session
=
"c26290835d4457ebf7d96bfab3740d19"
,
element
=
"0.09221044033125603-3"
)
>
.
.
.
<
selenium
.
webdriver
.
remote
.
webelement
.
WebElement
(
session
=
"c26290835d4457ebf7d96bfab3740d19"
,
element
=
"0.09221044033125603-16"
)
>
]
|
这里简化了输出结果,中间部分省略。
可以看到,得到的内容变成了列表类型,列表中的每个节点都是WebElement
类型。
也就是说,如果我们用find_element()
方法,只能获取匹配的第一个节点,结果是WebElement
类型。如果用find_elements()
方法,则结果是列表类型,列表中的每个节点是WebElement
类型。
这里列出所有获取多个节点的方法:
1
2
3
4
5
6
7
8
|
find_elements_by_id
find_elements_by_name
find_elements_by_xpath
find_elements_by_link_text
find_elements_by_partial_link_text
find_elements_by_tag_name
find_elements_by_class_name
find_elements_by_css_selector
|
当然,我们也可以直接用find_elements()
方法来选择,这时可以这样写:
1
|
lis
=
browser
.
find_elements
(
By
.
CSS_SELECTOR
,
'.service-bd li'
)
|
结果是完全一致的。
6. 节点交互
Selenium可以驱动浏览器来执行一些操作,也就是说可以让浏览器模拟执行一些动作。比较常见的用法有:输入文字时用send_keys()
方法,清空文字时用clear()
方法,点击按钮时用click()
方法。示例如下:
1
2
3
4
5
6
7
8
9
10
11
12
|
from
selenium
import
webdriver
import
time
browser
=
webdriver
.
Chrome
(
)
browser
.
get
(
'https://www.taobao.com'
)
input
=
browser
.
find_element_by_id
(
'q'
)
input
.
send_keys
(
'iPhone'
)
time
.
sleep
(
1
)
input
.
clear
(
)
input
.
send_keys
(
'iPad'
)
button
=
browser
.
find_element_by_class_name
(
'btn-search'
)
button
.
click
(
)
|
这里首先驱动浏览器打开淘宝,然后用find_element_by_id()
方法获取输入框,然后用send_keys()
方法输入iPhone文字,等待一秒后用clear()
方法清空输入框,再次调用send_keys()
方法输入iPad文字,之后再用find_element_by_class_name()
方法获取搜索按钮,最后调用click()
方法完成搜索动作。
通过上面的方法,我们就完成了一些常见节点的动作操作,更多的操作可以参见官方文档的交互动作介绍:http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.remote.webelement。
7. 动作链
在上面的实例中,一些交互动作都是针对某个节点执行的。比如,对于输入框,我们就调用它的输入文字和清空文字方法;对于按钮,就调用它的点击方法。其实,还有另外一些操作,它们没有特定的执行对象,比如鼠标拖曳、键盘按键等,这些动作用另一种方式来执行,那就是动作链。
比如,现在实现一个节点的拖曳操作,将某个节点从一处拖曳到另外一处,可以这样实现:
1
2
3
4
5
6
7
8
9
10
11
12
|
from
selenium
import
webdriver
from
selenium
.
webdriver
import
ActionChains
browser
=
webdriver
.
Chrome
(
)
url
=
'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'
browser
.
get
(
url
)
browser
.
switch_to
.
frame
(
'iframeResult'
)
source
=
browser
.
find_element_by_css_selector
(
'#draggable'
)
target
=
browser
.
find_element_by_css_selector
(
'#droppable'
)
actions
=
ActionChains
(
browser
)
actions
.
drag_and_drop
(
source
,
target
)
actions
.
perform
(
)
|
首先,打开网页中的一个拖曳实例,然后依次选中要拖曳的节点和拖曳到的目标节点,接着声明ActionChains
对象并将其赋值为actions
变量,然后通过调用actions
变量的drag_and_drop()
方法,再调用perform()
方法执行动作,此时就完成了拖曳操作,如图7-4和图7-5所示。
图7-4 拖曳前的页面
图7-5 拖曳后的页面
更多的动作链操作可以参考官方文档:http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.common.action_chains。
8. 执行JavaScript
对于某些操作,Selenium API并没有提供。比如,下拉进度条,它可以直接模拟运行JavaScript,此时使用execute_script()
方法即可实现,代码如下:
1
2
3
4
5
6
|
from
selenium
import
webdriver
browser
=
webdriver
.
Chrome
(
)
browser
.
get
(
'https://www.zhihu.com/explore'
)
browser
.
execute_script
(
'window.scrollTo(0, document.body.scrollHeight)'
)
browser
.
execute_script
(
'alert("To Bottom")'
)
|
这里就利用execute_script()
方法将进度条下拉到最底部,然后弹出alert提示框。
所以说有了这个方法,基本上API没有提供的所有功能都可以用执行JavaScript的方式来实现了。
9. 获取节点信息
前面说过,通过page_source
属性可以获取网页的源代码,接着就可以使用解析库(如正则表达式、Beautiful Soup、pyquery等)来提取信息了。
不过,既然Selenium已经提供了选择节点的方法,返回的是WebElement
类型,那么它也有相关的方法和属性来直接提取节点信息,如属性、文本等。这样的话,我们就可以不用通过解析源代码来提取信息了,非常方便。
接下来,就看看通过怎样的方式来获取节点信息吧。
获取属性
我们可以使用get_attribute()
方法来获取节点的属性,但是其前提是先选中这个节点,示例如下:
1
2
3
4
5
6
7
8
9
|
from
selenium
import
webdriver
from
selenium
.
webdriver
import
ActionChains
browser
=
webdriver
.
Chrome
(
)
url
=
'https://www.zhihu.com/explore'
browser
.
get
(
url
)
logo
=
browser
.
find_element_by_id
(
'zh-top-link-logo'
)
print
(
logo
)
print
(
logo
.
get_attribute
(
'class'
)
)
|
运行之后,程序便会驱动浏览器打开知乎页面,然后获取知乎的logo节点,最后打印出它的class
。
控制台的输出结果如下:
1
2
|
<
selenium
.
webdriver
.
remote
.
webelement
.
WebElement
(
session
=
"e08c0f28d7f44d75ccd50df6bb676104"
,
element
=
"0.7236390660048155-1"
)
>
zu
-
top
-
link
-
logo
|
通过get_attribute()
方法,然后传入想要获取的属性名,就可以得到它的值了。
获取文本值
每个WebElement
节点都有text
属性,直接调用这个属性就可以得到节点内部的文本信息,这相当于Beautiful Soup的get_text()
方法、pyquery的text()
方法,示例如下:
1
2
3
4
5
6
7
|
from
selenium
import
webdriver
browser
=
webdriver
.
Chrome
(
)
url
=
'https://www.zhihu.com/explore'
browser
.
get
(
url
)
input
=
browser
.
find_element_by_class_name
(
'zu-top-add-question'
)
print
(
input
.
text
)
|
这里依然先打开知乎页面,然后获取“提问”按钮这个节点,再将其文本值打印出来。
控制台的输出结果如下:
1
|
提问
|
获取id、位置、标签名和大小
另外,WebElement
节点还有一些其他属性,比如id
属性可以获取节点id
,location
属性可以获取该节点在页面中的相对位置,tag_name
属性可以获取标签名称,size
属性可以获取节点的大小,也就是宽高,这些属性有时候还是很有用的。示例如下:
1
2
3
4
5
6
7
8
9
10
|
from
selenium
import
webdriver
browser
=
webdriver
.
Chrome
(
)
url
=
'https://www.zhihu.com/explore'
browser
.
get
(
url
)
input
=
browser
.
find_element_by_class_name
(
'zu-top-add-question'
)
print
(
input
.
id
)
print
(
input
.
location
)
print
(
input
.
tag_name
)
print
(
input
.
size
)
|
这里首先获得“提问”按钮这个节点,然后调用其id
、location
、tag_name
、size
属性来获取对应的属性值。
10. 切换Frame
我们知道网页中有一种节点叫作iframe,也就是子Frame,相当于页面的子页面,它的结构和外部网页的结构完全一致。Selenium打开页面后,它默认是在父级Frame里面操作,而此时如果页面中还有子Frame,它是不能获取到子Frame里面的节点的。这时就需要使用switch_to.frame()
方法来切换Frame。示例如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
import
time
from
selenium
import
webdriver
from
selenium
.
common
.
exceptions
import
NoSuchElementException
browser
=
webdriver
.
Chrome
(
)
url
=
'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'
browser
.
get
(
url
)
browser
.
switch_to
.
frame
(
'iframeResult'
)
try
:
logo
=
browser
.
find_element_by_class_name
(
'logo'
)
except
NoSuchElementException
:
print
(
'NO LOGO'
)
browser
.
switch_to
.
parent_frame
(
)
logo
=
browser
.
find_element_by_class_name
(
'logo'
)
print
(
logo
)
print
(
logo
.
text
)
|
控制台的输出如下:
1
2
3
|
NO
LOGO
<
selenium
.
webdriver
.
remote
.
webelement
.
WebElement
(
session
=
"4bb8ac03ced4ecbdefef03ffdc0e4ccd"
,
element
=
"0.13792611320464965-2"
)
>
RUNOOB
.
COM
|
这里还是以前面演示动作链操作的网页为实例,首先通过switch_to.frame()
方法切换到子Frame里面,然后尝试获取父级Frame里的logo节点(这是不能找到的),如果找不到的话,就会抛出NoSuchElementException
异常,异常被捕捉之后,就会输出NO LOGO
。接下来,重新切换回父级Frame,然后再次重新获取节点,发现此时可以成功获取了。
所以,当页面中包含子Frame时,如果想获取子Frame中的节点,需要先调用switch_to.frame()
方法切换到对应的Frame,然后再进行操作。
11. 延时等待
在Selenium中,get()
方法会在网页框架加载结束后结束执行,此时如果获取page_source
,可能并不是浏览器完全加载完成的页面,如果某些页面有额外的Ajax请求,我们在网页源代码中也不一定能成功获取到。所以,这里需要延时等待一定时间,确保节点已经加载出来。
这里等待的方式有两种:一种是隐式等待,一种是显式等待。
隐式等待
当使用隐式等待执行测试的时候,如果Selenium没有在DOM中找到节点,将继续等待,超出设定时间后,则抛出找不到节点的异常。换句话说,当查找节点而节点并没有立即出现的时候,隐式等待将等待一段时间再查找DOM,默认的时间是0。示例如下:
1
2
3
4
5
6
7
|
from
selenium
import
webdriver
browser
=
webdriver
.
Chrome
(
)
browser
.
implicitly_wait
(
10
)
browser
.
get
(
'https://www.zhihu.com/explore'
)
input
=
browser
.
find_element_by_class_name
(
'zu-top-add-question'
)
print
(
input
)
|
这里我们用implicitly_wait()
方法实现了隐式等待。
显式等待
隐式等待的效果其实并没有那么好,因为我们只规定了一个固定时间,而页面的加载时间会受到网络条件的影响。
这里还有一种更合适的显式等待方法,它指定要查找的节点,然后指定一个最长等待时间。如果在规定时间内加载出来了这个节点,就返回查找的节点;如果到了规定时间依然没有加载出该节点,则抛出超时异常。示例如下:
1
2
3
4
5
6
7
8
9
10
11
|
from
selenium
import
webdriver
from
selenium
.
webdriver
.
common
.
by
import
By
from
selenium
.
webdriver
.
support
.
ui
import
WebDriverWait
from
selenium
.
webdriver
.
support
import
expected_conditions
as
EC
browser
=
webdriver
.
Chrome
(
)
browser
.
get
(
'https://www.taobao.com/'
)
wait
=
WebDriverWait
(
browser
,
10
)
input
=
wait
.
until
(
EC
.
presence_of_element_located
(
(
By
.
ID
,
'q'
)
)
)
button
=
wait
.
until
(
EC
.
element_to_be_clickable
(
(
By
.
CSS_SELECTOR
,
'.btn-search'
)
)
)
print
(
input
,
button
)
|
这里首先引入WebDriverWait
这个对象,指定最长等待时间,然后调用它的until()
方法,传入要等待条件expected_conditions
。比如,这里传入了presence_of_element_located
这个条件,代表节点出现的意思,其参数是节点的定位元组,也就是ID
为q
的节点搜索框。
这样可以做到的效果就是,在10秒内如果ID
为q
的节点(即搜索框)成功加载出来,就返回该节点;如果超过10秒还没有加载出来,就抛出异常。
对于按钮,可以更改一下等待条件,比如改为element_to_be_clickable
,也就是可点击,所以查找按钮时查找CSS选择器为.btn-search的按钮,如果10秒内它是可点击的,也就是成功加载出来了,就返回这个按钮节点;如果超过10秒还不可点击,也就是没有加载出来,就抛出异常。
运行代码,在网速较佳的情况下是可以成功加载出来的。
控制台的输出如下:
1
2
|
<
selenium
.
webdriver
.
remote
.
webelement
.
WebElement
(
session
=
"07dd2fbc2d5b1ce40e82b9754aba8fa8"
,
element
=
"0.5642646294074107-1"
)
>
<
selenium
.
webdriver
.
remote
.
webelement
.
WebElement
(
session
=
"07dd2fbc2d5b1ce40e82b9754aba8fa8"
,
element
=
"0.5642646294074107-2"
)
>
|
可以看到,控制台成功输出了两个节点,它们都是WebElement
类型。
如果网络有问题,10秒内没有成功加载,那就抛出TimeoutException
异常,此时控制台的输出如下:
1
2
3
4
5
|
TimeoutException
Traceback
(
most
recent
call
last
)
<
ipython
-
input
-
4
-
f3d73973b223
>
in
<
module
>
(
)
7
browser
.
get
(
'https://www.taobao.com/'
)
8
wait
=
WebDriverWait
(
browser
,
10
)
--
--
>
9
input
=
wait
.
until
(
EC
.
presence_of_element_located
(
(
By
.
ID
,
'q'
)
)
)
|
关于等待条件,其实还有很多,比如判断标题内容,判断某个节点内是否出现了某文字等。表7-1列出了所有的等待条件。
表7-1 等待条件及其含义
等待条件 | 含义 |
---|---|
| 标题是某内容 |
| 标题包含某内容 |
| 节点加载出来,传入定位元组,如 |
| 节点可见,传入定位元组 |
| 可见,传入节点对象 |
| 所有节点加载出来 |
| 某个节点文本包含某文字 |
| 某个节点值包含某文字 |
| 加载并切换 |
| 节点不可见 |
| 节点可点击 |
| 判断一个节点是否仍在DOM,可判断页面是否已经刷新 |
| 节点可选择,传节点对象 |
| 节点可选择,传入定位元组 |
| 传入节点对象以及状态,相等返回 |
| 传入定位元组以及状态,相等返回 |
| 是否出现警告 |
关于更多等待条件的参数及用法,可以参考官方文档:http://selenium-python.readthedocs.io/api.html#module-selenium.webdriver.support.expected_conditions。
12. 前进和后退
平常使用浏览器时都有前进和后退功能,Selenium也可以完成这个操作,它使用back()
方法后退,使用forward()
方法前进。示例如下:
1
2
3
4
5
6
7
8
9
10
11
|
import
time
from
selenium
import
webdriver
browser
=
webdriver
.
Chrome
(
)
browser
.
get
(
'https://www.baidu.com/'
)
browser
.
get
(
'https://www.taobao.com/'
)
browser
.
get
(
'https://www.python.org/'
)
browser
.
back
(
)
time
.
sleep
(
1
)
browser
.
forward
(
)
browser
.
close
(
)
|
这里我们连续访问3个页面,然后调用back()
方法回到第二个页面,接下来再调用forward()
方法又可以前进到第三个页面。
13. Cookies
使用Selenium,还可以方便地对Cookies进行操作,例如获取、添加、删除Cookies等。示例如下:
1
2
3
4
5
6
7
8
9
|
from
selenium
import
webdriver
browser
=
webdriver
.
Chrome
(
)
browser
.
get
(
'https://www.zhihu.com/explore'
)
print
(
browser
.
get_cookies
(
)
)
browser
.
add_cookie
(
{
'name'
:
'name'
,
'domain'
:
'www.zhihu.com'
,
'value'
:
'germey'
}
)
print
(
browser
.
get_cookies
(
)
)
browser
.
delete_all_cookies
(
)
print
(
browser
.
get_cookies
(
)
)
|
首先,我们访问了知乎。加载完成后,浏览器实际上已经生成Cookies了。接着,调用get_cookies()
方法获取所有的Cookies。然后,我们添加一个Cookie,这里传入一个字典,有name
、domain
和value
等内容。接下来,再次获取所有的Cookies。可以发现,结果就多了这一项新加的Cookie。最后,调用delete_all_cookies()
方法删除所有的Cookies。再重新获取,发现结果就为空了。
控制台的输出如下:
1
2
3
|
[
{
'secure'
:
False
,
'value'
:
'"NGM0ZTM5NDAwMWEyNDQwNDk5ODlkZWY3OTkxY2I0NDY=|1491604091|236e34290a6f407bfbb517888849ea509ac366d0"'
,
'domain'
:
'.zhihu.com'
,
'path'
:
'/'
,
'httpOnly'
:
False
,
'name'
:
'l_cap_id'
,
'expiry'
:
1494196091.403418
}
]
[
{
'secure'
:
False
,
'value'
:
'germey'
,
'domain'
:
'.www.zhihu.com'
,
'path'
:
'/'
,
'httpOnly'
:
False
,
'name'
:
'name'
}
,
{
'secure'
:
False
,
'value'
:
'"NGM0ZTM5NDAwMWEyNDQwNDk5ODlkZWY3OTkxY2I0NDY=|1491604091|236e34290a6f407bfbb517888849ea509ac366d0"'
,
'domain'
:
'.zhihu.com'
,
'path'
:
'/'
,
'httpOnly'
:
False
,
'name'
:
'l_cap_id'
,
'expiry'
:
1494196091.403418
}
]
[
]
|
14. 选项卡管理
在访问网页的时候,会开启一个个选项卡。在Selenium中,我们也可以对选项卡进行操作。示例如下:
1
2
3
4
5
6
7
8
9
10
11
12
|
import
time
from
selenium
import
webdriver
browser
=
webdriver
.
Chrome
(
)
browser
.
get
(
'https://www.baidu.com'
)
browser
.
execute_script
(
'window.open()'
)
print
(
browser
.
window_handles
)
browser
.
switch_to_window
(
browser
.
window_handles
[
1
]
)
browser
.
get
(
'https://www.taobao.com'
)
time
.
sleep
(
1
)
browser
.
switch_to_window
(
browser
.
window_handles
[
0
]
)
browser
.
get
(
'https://python.org'
)
|
控制台的输出如下:
1
|
[
'CDwindow-4f58e3a7-7167-4587-bedf-9cd8c867f435'
,
'CDwindow-6e05f076-6d77-453a-a36c-32baacc447df'
]
|
首先访问了百度,然后调用了execute_script()
方法,这里传入window.open()
这个JavaScript语句新开启一个选项卡。接下来,我们想切换到该选项卡。这里调用window_handles
属性获取当前开启的所有选项卡,返回的是选项卡的代号列表。要想切换选项卡,只需要调用switch_to_window()
方法即可,其中参数是选项卡的代号。这里我们将第二个选项卡代号传入,即跳转到第二个选项卡,接下来在第二个选项卡下打开一个新页面,然后切换回第一个选项卡重新调用switch_to_window()方法,再执行其他操作即可。
15. 异常处理
在使用Selenium的过程中,难免会遇到一些异常,例如超时、节点未找到等错误,一旦出现此类错误,程序便不会继续运行了。这里我们可以使用try except
语句来捕获各种异常。
首先,演示一下节点未找到的异常,示例如下:
1
2
3
4
5
|
from
selenium
import
webdriver
browser
=
webdriver
.
Chrome
(
)
browser
.
get
(
'https://www.baidu.com'
)
browser
.
find_element_by_id
(
'hello'
)
|
这里首先打开百度页面,然后尝试选择一个并不存在的节点,此时就会遇到异常。
运行之后控制台的输出如下:
1
2
3
4
5
|
NoSuchElementException
Traceback
(
most
recent
call
last
)
<
ipython
-
input
-
23
-
978945848a1b
>
in
<
module
>
(
)
3
browser
=
webdriver
.
Chrome
(
)
4
browser
.
get
(
'https://www.baidu.com'
)
--
--
>
5
browser
.
find_element_by_id
(
'hello'
)
|
可以看到,这里抛出了NoSuchElementException
异常,这通常是节点未找到的异常。为了防止程序遇到异常而中断,我们需要捕获这些异常,示例如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
from
selenium
import
webdriver
from
selenium
.
common
.
exceptions
import
TimeoutException
,
NoSuchElementException
browser
=
webdriver
.
Chrome
(
)
try
:
browser
.
get
(
'https://www.baidu.com'
)
except
TimeoutException
:
print
(
'Time Out'
)
try
:
browser
.
find_element_by_id
(
'hello'
)
except
NoSuchElementException
:
print
(
'No Element'
)
finally
:
browser
.
close
(
)
|
这里我们使用try except
来捕获各类异常。比如,我们对find_element_by_id()
查找节点的方法捕获NoSuchElementException
异常,这样一旦出现这样的错误,就进行异常处理,程序也不会中断了。
控制台的输出如下:
1
|
No
Element
|
关于更多的异常类,可以参考官方文档:http://selenium-python.readthedocs.io/api.html#module-selenium.common.exceptions。
现在,我们基本对Selenium的常规用法有了大体的了解。使用Selenium,处理JavaScript不再是难事。
转载请注明:静觅 » [Python3网络爬虫开发实战] 7.1-Selenium的使用