动态网页爬虫学习笔记

Selenium+chromedriver获取动态数据:

官方文档

Selenium相当于是-一个机器人。可以模拟人类在浏览器上的一些行为,自动处理浏览器上的一些行为,比如点击,填充数据,删除cookie等。chromedriver 是-个驱动Chrome浏览器的驱动程序,使用他才可以驱动浏览器。当然针对不同的浏览器有不同的driver。

以下列出了不同浏览器及其对应的driver:

1. Chrome: https:// sites google.com/a/chromium.org/chromedriver/downloads

2. Firefox: http://github.com/mozilla/geckodriver/releases

3. Edge: https://developer.microsoft.com/en-us/microsoft-edge/tools/webdriver/

4. Safari: https://webkit. org/blog/6900/webdriver-support-in-safari-10/

安装Selenium和chromedriver:

1.安装Selenium : Selenium 有很多语言的版本,有java、 ruby、 python等。我们下载python版本的就可以了。
      pip install selenium

2.安装chromedriver :下载完成后,放到不需要权限的纯英文目录下就可以了。


页面等待:

现在的网页越来越多采用了Ajax技术,这样程序便不能确定何时某个元素完全加载出来了。如果实际页面等待时间过长导致某个dom元素还没出来,但是你的代码直接使用了这个WebElement,那么就会抛出NullPointer的异常。为了解决这个问题。所以Selenium提供了两种等待方式:一种是隐式等待、一种是显式等待。

1.隐式等待:

调用 driver. implicitly_wait。那么在获取不可用的元素之前,会先等待10秒中的时间。

示例代码如下:

driver = webdriver.Chrome(executable_path=driver_path)
driver. implicitly_wait(10)
#请求网页
driver.get("https://www . douban. com/")
View Code
2.显示等待:

显示等待是表明某个条件成立后才执行获取元素的操作。也可以在等待的时候指定一个最大的时间,如果超过这个时间那么就抛出一个异常。显示等待应该使用selenium.webdriver.support.excepted_ conditions 期望的条件和selenium.webdriver.support.ui.WebDriverWait来配合完成。

示例代码如下:

from selenium import webdriver
from selenium.webdriver.comon.by import By
from selenium.webdriver.support.ui import WebDriverwait
from selenium.webdriver.support import expected_ conditions as EC

driver = webdriver.Firefox()
driver.get("http://somedomain/ur1_that_delays_ loading" )
try:
    element=WebDriverWait(driver,10).until(
                  EC. presence_ of_ element_ located((By.ID, "myDynamicElement"))
                  )
finally:
     driver.quit()
            
View Code
3.一些其他的等待条件:
  • presence_of_element_located:某个元素已经加载完毕了。
  • presence_of_all_emement_located:网页中所有满足条件的元素都加载完毕了
  • element_to_be_cliable:某个元素是可以点击了。

更多条件请参考: http://selenium-python.readthedocs.io/waits.html


 切换页面:

有时候窗口中有很多子tab页面。这时候肯定是需要进行切换的。selenium 提供了一个叫做switch .to window来进行切换,具体切换到哪个页面,可以从driver.window_ handles中找到。

示例代码如下:

# 打开一个新的英面
self.driver.execute_script("window. open( ' "*+ur1+*" ' )")
# 切换到这个新的页面中
se1f.driver.switch_to_window(self.driver.window_handles[1])

设置代理ip:

有时候频繁爬取一些网页。服务器发现你是爬虫后会封掉你的ip地址。这时候我们可以更改代理ip。更改代理ip,不同的浏览器有不同的实现方式。这里以Chrome 浏览器为例来讲解: 

from selenium import webdriver

options = webdriver.ChromeOptions()
options.add_argument("--proxy-server=http://110.73.2.248:8123")
driver_path = r"D:\ProgramApp\chromedriver\chromedriver.exe"
driver = webdriver.Chrome(executable_ path=driver.path,chrome_options=options)

driver.get('http://httpbin.org/ip*)
View Code

 


WebElement元素:

from selenium.webdriver.remote.webelement import WebElement 类是每个获取出来的元素的所属类。

有一些常用的属性:
1. get_attribute:  这个标签的某个属性的值。
2. screentshot:  获取当前页面的截图。这个方法只能在driver 上使用。
   driver的对象类,也是继承自WebElement。
更多请阅读相关源代码。

转载于:https://www.cnblogs.com/chrysanthemum/p/11537946.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【为什么学爬虫?】        1、爬虫入手容易,但是深入较难,如何写出高效率的爬虫,如何写出灵活性高可扩展的爬虫都是一项技术活。另外在爬虫过程中,经常容易遇到被反爬虫,比如字体反爬、IP识别、验证码等,如何层层攻克难点拿到想要的数据,这门课程,你都能学到!        2、如果是作为一个其他行业的开发者,比如app开发,web开发,学习爬虫能让你加强对技术的认知,能够开发出更加安全的软件和网站 【课程设计】 一个完整的爬虫程序,无论大小,总体来说可以分成三个步骤,分别是:网络请求:模拟浏览器的行为从网上抓取数据。数据解析:将请求下来的数据进行过滤,提取我们想要的数据。数据存储:将提取到的数据存储到硬盘或者内存中。比如用mysql数据库或者redis等。那么本课程也是按照这几个步骤循序渐进的进行讲解,带领学生完整的掌握每个步骤的技术。另外,因为爬虫的多样性,在爬取的过程中可能会发生被反爬、效率低下等。因此我们又增加了两个章节用来提高爬虫程序的灵活性,分别是:爬虫进阶:包括IP代理,多线程爬虫,图形验证码识别、JS加密解密、动态网页爬虫、字体反爬识别等。Scrapy和分布式爬虫:Scrapy框架、Scrapy-redis组件、分布式爬虫等。通过爬虫进阶的知识点我们能应付大量的反爬网站,而Scrapy框架作为一个专业的爬虫框架,使用他可以快速提高我们编写爬虫程序的效率和速度。另外如果一台机器不能满足你的需求,我们可以用分布式爬虫让多台机器帮助你快速爬取数据。 从基础爬虫到商业化应用爬虫,本套课程满足您的所有需求!【课程服务】 专属付费社群+定期答疑

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值