Python爬虫基础:selenium——浏览器对象的常用方法

本文介绍了Python使用selenium进行网页爬取时,浏览器对象的常用方法,包括访问页面、获取HTML、处理cookies、页面等待以及窗口控制等。同时,讲解了隐式等待和强制等待在处理Ajax页面时的重要性,并提到了回退、前进和窗口切换等其他功能。
摘要由CSDN通过智能技术生成

浏览器对象的常用方法

当我们通过selenium实例化一个浏览器对象时,可以针对此对象进行操作,常见的操作如下所示:

  1. driver.get(‘url’)

根据url地址访问站点

  1. driver.page_source

查看页面渲染之后的html数据

  1. driver.get_cookies()

查看页面请求后生成的cookies,可以用此方法拿到加密的

  1. cookiesdriver.current_url

查看当前页面的url

  1. driver.maximize_window()

最大化浏览器

  1. driver.minimize_window()

最小化浏览器

  1. driver.close()

关闭当前页面,注意不是关闭整个浏览器

  1. driver.quit()

关闭浏览器

学习更多知识或解答疑问、源码、教程请点击

页面等待的方法

现在的网页越来越多采用了Ajax技术,这样程序便不能确定何时某个元素完全加载出来了。如果实际页面等待时间过短导致某个dom元素还没出来,但是你的代码直接使用了这个WebElement&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值