爬虫08_selenium在爬虫中的应用

16 篇文章 0 订阅
12 篇文章 1 订阅

简介

selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题 ,另一个是为了解决Scrapy框架只能爬取静态数据不能爬取动态加载数据的问题,结合selenium完成动态加载数据的爬取,selenium本质是通过驱动浏览器,完全模拟浏览器的操作,比如跳转、输入、点击、下拉等,来拿到网页渲染之后的结果,可支持多种浏览器

selenium可以实现所见即所得,尤其是在捕获动态加载数据时,而requests模块在使用过程中则不一定每次都能捕获,对于动态数据需要用抓包工具进行抓取,在处理一下ajax请求时

selenium的弊端是效率低,爬取速度慢,因为它是通过真实的打开浏览器,因此也不需要模仿设立UserAgent和cookie,在浏览器中发起真是的请求才请求到数据

环境安装

  • Mac OS下直接,下载安装selenium:pip install selenium
  • 下载浏览器驱动程序:http://chromedriver.storage.googleapis.com/index.html
  • 查看驱动和浏览器版本的映射关系:http://blog.csdn.net/huilan_same/article/details/51896672

简单使用/效果展示

  • selenium完成打开京东网站,输入“iPhone SE”,点击搜索,进入结果界面,滚轮向下滑动一个屏幕的高度(js注入,自己写的一段js代码)
from selenium import webdriver
from time import sleep

#如果驱动未配置环境变量,需要加上executable_path参数的值
driver = webdriver.Chrome(executable_path='./chromedriver')
#操作1:对目的网站发起请求
driver.get('http://www.jd.com')

sleep(3)

#操作2:标签定位
#方法:find_element_by_id和find_element_by_xpath
search_text = driver.find_element_by_xpath('//*[@id="key"]') #通过xpath定位到搜索框
search_text.send_keys('iPhone SE') #send_keys方法表示,向搜索框中输入关键字

sleep(2)

#操作3:点击操作
button = driver.find_element_by_xpath('//*[@id="search"]/div/div[2]/button')
button.click()

sleep(2)

#操作4:执行js操作,执行js代码(js注入window.scrollTo(0, document.body.scrollHeight))
#在搜索界面进行滚轮滑动的操作
driver.execute_script('window.scrollTo(0, document.body.scrollHeight)')

# 关闭浏览器
sleep(3)
driver.quit()
  • 百度设置,输入“美女”,打开第一个
from selenium import webdriver
from time import sleep

#如果驱动未配置环境变量,需要加上executable_path参数的值
driver = webdriver.Chrome(executable_path='./chromedriver')
#操作1:对目的网站发起请求
driver.get('https://www.baidu.com/')
sleep(2)

# 查找页面的“设置”选项,并进行点击
driver.find_elements_by_xpath('//*[@id="u1"]/a[9]')[0].click()
# # 打开设置后找到“搜索设置”选项,设置为每页显示50条
driver.find_elements_by_link_text('搜索设置')[0].click()
sleep(2)

# 选中每页显示50条
m = driver.find_element_by_id('nr')
sleep(2)
m.find_element_by_xpath('//*[@id="nr"]/option[3]').click()
m.find_element_by_xpath('.//option[3]').click()
sleep(2)

# 点击保存设置
driver.find_elements_by_class_name("prefpanelgo")[0].click()
sleep(2)

# 处理弹出的警告页面   确定accept() 和 取消dismiss()
driver.switch_to_alert().accept()
sleep(2)
# 找到百度的输入框,并输入 美女
driver.find_element_by_id('kw').send_keys('美女')
sleep(2)
# 点击搜索按钮
driver.find_element_by_id('su').click()
sleep(2)
# 在打开的页面中找到“Selenium - 开源中国社区”,并打开这个页面
driver.find_elements_by_xpath('//*[@id="1"]/div[1]/a[1]/img')[0].click()
sleep(3)

# 关闭浏览器
sleep(3)
driver.quit()

如何使用selenium捕获动态加载的数据

  • 药监总局为例:http://125.35.6.84:81/xk
  • 将药监总局前三页的所有企业名称爬到
  • 示例代码:
from selenium import webdriver
from lxml import etree
from time import sleep

url = 'http://125.35.6.84:81/xk/'
page_text_list = []#存放每一页的源码数据
driver = webdriver.Chrome(executable_path='./chromedriver')
driver.get(url)
sleep(2)

#捕获当前页面所对应的所有源码数据
page_text = driver.page_source #获取所有的数据包
page_text_list.append(page_text)

for i in range(2):
    #点击下一页
    next_page = driver.find_element_by_xpath('//*[@id="pageIto_next"]')
    next_page.click()
    sleep(1)
    page_text_list.append(driver.page_source)

for page_text in page_text_list:
    #进行数据解析
    tree = etree.HTML(page_text)
    li_list = tree.xpath('//*[@id="gzlist"]/li')
    for li in li_list:
        #etree.xpath()返回时一个列表,因此无论是取属性值还是标签内容,需要用列表索引取值
        name = li.xpath('./dl/@title')[0]
        print(name)

sleep(2)
driver.quit()

  • 基于selenium重写之前获取化妆品生产许可证详细信息,企业名称和法人代表
from selenium import webdriver
from lxml import etree
from time import sleep

url = 'http://125.35.6.84:81/xk/'
page_text_list = []#存放每一页的源码数据
driver = webdriver.Chrome(executable_path='./chromedriver')
driver.get(url)
sleep(2)

#捕获当前页面所对应的所有源码数据
page_text = driver.page_source #获取所有的数据包
page_text_list.append(page_text)

for i in range(2):
    #点击下一页
    next_page = driver.find_element_by_xpath('//*[@id="pageIto_next"]')
    next_page.click()
    sleep(1)
    page_text_list.append(driver.page_source)

for page_text in page_text_list:
    #进行数据解析
    tree = etree.HTML(page_text)
    li_list = tree.xpath('//*[@id="gzlist"]/li')
    for li in li_list:
        #etree.xpath()返回时一个列表,因此无论是取属性值还是标签内容,需要用列表索引取值
        #name = li.xpath('./dl/@title')[0]
        #获取详情页的url
        new_url = li.xpath('./ol/a/@href')[0]
        driver.get(new_url)
        sleep(0.5)
        new_tree = etree.HTML(driver.page_source)
        name = new_tree.xpath('//*[@id="epsName"]/text()')[0]
        
        print(name)

sleep(2)
driver.quit()

常用操作查询

浏览器创建

Selenium支持非常多的浏览器,如Chrome、Firefox、Edge等,还有Android、BlackBerry等手机端的浏览器。另外,也支持无界面浏览器PhantomJS。

from selenium import webdriver
  
browser = webdriver.Chrome()
browser = webdriver.Firefox()
browser = webdriver.Edge()
browser = webdriver.PhantomJS()
browser = webdriver.Safari()
元素定位

webdriver 提供了一系列的元素定位方法,常用的有以下几种:

find_element_by_id()
find_element_by_name()
find_element_by_class_name()
find_element_by_tag_name()
find_element_by_link_text()
find_element_by_partial_link_text()
find_element_by_xpath()
find_element_by_css_selector()

注意:

  1. find_element_by_xxx找的是第一个符合条件的标签,find_elements_by_xxx找的是所有符合条件的标签。
  2. 根据ID、CSS选择器和XPath获取,它们返回的结果完全一致。
  3. 另外,Selenium还提供了通用方法find_element(),它需要传入两个参数:查找方式By和值。实际上,它就是find_element_by_id()这种方法的通用函数版本,比如find_element_by_id(id)就等价于find_element(By.ID, id),二者得到的结果完全一致。

节点交互

Selenium可以驱动浏览器来执行一些操作,也就是说可以让浏览器模拟执行一些动作。比较常见的用法有:输入文字时用send_keys()方法,清空文字时用clear()方法,点击按钮时用click()方法。示例如下:

from selenium import webdriver
import time
 
browser = webdriver.Chrome()
browser.get('https://www.taobao.com')
input = browser.find_element_by_id('q')
input.send_keys('MAC')
time.sleep(1)
input.clear()
input.send_keys('IPhone')
button = browser.find_element_by_class_name('btn-search')
button.click()
browser.quit()
动作链

在上面的实例中,一些交互动作都是针对某个节点执行的。比如,对于输入框,我们就调用它的输入文字和清空文字方法;对于按钮,就调用它的点击方法。其实,还有另外一些操作,它们没有特定的执行对象,比如鼠标拖曳、键盘按键等,这些动作用另一种方式来执行,那就是动作链。

比如,现在实现一个节点的拖曳操作,将某个节点从一处拖曳到另外一处,可以这样实现:

from selenium import webdriver
from selenium.webdriver import ActionChains
import time
browser = webdriver.Chrome()
url = 'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'
browser.get(url)
sleep(1)
# 对于页面嵌套标签<iframe>,如果通过find系列的函数进行标签定位,如果标签存在于<iframe>下则定位失败
browser.switch_to.frame('iframeResult')
source = browser.find_element_by_css_selector('#draggable')
target = browser.find_element_by_css_selector('#droppable')

# 针对指定的浏览器,生成一个对应的动作链,实例化好一个动作链,和浏览器绑定
actions = ActionChains(browser)
# actions.drag_and_drop(source, target)
# actions.perform() #执行动作链
# 保持点击并且长按住click_and_hold
actions.click_and_hold(source)
time.sleep(3)
for i in range(5):
    actions.move_by_offset(xoffset=17,yoffset=0).perform() #执行动作链
    time.sleep(0.5)

actions.release()
执行JavaScript

对于某些操作,Selenium API并没有提供。比如,下拉进度条,它可以直接模拟运行JavaScript,此时使用execute_script()方法即可实现,代码如下:

from selenium import webdriver
 
browser = webdriver.Chrome()
browser.get('https://www.jd.com/')
browser.execute_script('window.scrollTo(0, document.body.scrollHeight)')
browser.execute_script('alert("123")')
获取页面的源码数据

通过page_source属性可以获取网页的源代码,即当前页面全部加载完成后对应的所有源码数据(就是谷歌浏览器Elements栏目下的所有数据),而response.text只能获取某一个具体的数据包(就是谷歌浏览器Network栏目下的一个具体的数据包),接着就可以使用解析库(如正则表达式、Beautiful Soup、pyquery等)来提取信息了

page_text = driver.page_source
前进和后退
#模拟浏览器的前进后退
import time
from selenium import webdriver
 
browser=webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.get('https://www.taobao.com')
browser.get('http://www.sina.com.cn/')
 
browser.back()
time.sleep(10)
browser.forward()
browser.close()
Cookie处理

使用Selenium,还可以方便地对Cookies进行操作,例如获取、添加、删除Cookies等。示例如下:

from selenium import webdriver
 
browser = webdriver.Chrome()
browser.get('https://www.zhihu.com/explore')
print(browser.get_cookies())
browser.add_cookie({'name': 'name', 'domain': 'www.zhihu.com', 'value': 'germey'})
print(browser.get_cookies())
browser.delete_all_cookies()
print(browser.get_cookies())
异常处理
from selenium import webdriver
from selenium.common.exceptions import TimeoutException,NoSuchElementException,NoSuchFrameException

try:
    browser=webdriver.Chrome()
    browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
    browser.switch_to.frame('iframssseResult')

except TimeoutException as e:
    print(e)
except NoSuchFrameException as e:
    print(e)
finally:
    browser.close()

总结:

selenium捕获动态加载数据的步骤:

  • 实例化一个浏览器对象
  • 通过对象发请求
  • 获取所有网页的源码数据
  • 用etree进行xpath解析
  • 用webdriver特有的交互方法,例如使用find_element_by_id或者find_element_by_xpath,进行动作交互,完成数据爬取
  • 关闭浏览器

对于页面嵌套标签,如果通过find系列的函数进行标签定位,如果标签存在于下则定位失败,使用switch_to.frame(‘标签id属性值’)

etree.HTML(page_text).xpath(‘xpath路径’)无法定位包含的标签,应该将xpath路径中的tbody去掉,改成//

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值