Selenium请求url后的方法

了解更多关注微信公众号“木下学Python”吧~

 

目录

2..page_source()

3..encode(xxx)

4..decode(xxx)

5..click() 与 Keys.RETURN()

6..clear()

7..save_screenshot('image_name.jpg')

8..maximize_window() 

9..get_screenshot_as_file('12.png')


browser=  webdriver.Chrome()
browser.get(url)

 

2..page_source

获取网页源码 html

 

3..encode(xxx)

编码;以 xxx 编码对unicode对像进行编码;.encode('GBK', 'ignore') 这里编码遇到格式为 GBK 的忽略

 

4..decode(xxx)

解码;以 xxx 格式解码,.decode('gb2312')#以gb2312编码对字符串str进行解码,获得字符串类型对象;

.decode('utf-8')#如果以utf-8的编码对str进行解码得到的结果,将无法还原原来的字符串内容

 

5..click() 与 Keys.RETURN()

定位到元素后,用在最后面,点击作用

from selenium.webdriver.commn.keys import Keys

.send_keys(Keys.RETURN) 也是点击作用,相当于回车

 

!!!click,clear 不能连续使用,使用一次后,要重新定位元素再次使用

broswer.find_by_xpath('...').clear().click() ................错

broswer.find_by_xpath('...).clear()

broswer.find_by_xpath('...)【0】.click()

 

6..clear()

定位到元素后,用在最后面,清除作用

 

7..save_screenshot('image_name.jpg')

在使用 PhantomJS 浏览器时,为了调试方便,可截图

 

8..maximize_window() 

浏览器窗口最大化

 

9..get_screenshot_as_file('12.png')

截屏

 

10.assert

assert u"百度" in driver.title 判断“百度”是否在页面标题中

assert u"网络爬虫" not in driver.page_source 判断“网络爬虫”是否出现在了页面中

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值