Python爬虫基础之Selenium详解

原文地址:https://program-park.top/2023/10/16/reptile_3/

本文章中所有内容仅供学习交流使用,不用于其他任何目的,严禁用于商业用途和非法用途,否则由此产生的一切后果均与作者无关。

1. Selenium简介

  Selenium 是一个用于 Web 应用程序测试的工具。最初是为网站自动化测试而开发的,可以直接运行在浏览器上,支持的浏览器包括 IE(7, 8, 9, 10, 11),Mozilla Firefox,Safari,Google Chrome,Opera 和 Edge 等。
  爬虫中使用它是为了解决 requests 无法直接执行 JavaScript 代码的问题。Selenium 本质上是通过驱动浏览器,彻底模拟浏览器的操作,好比跳转、输入、点击、下拉等,来拿到网页渲染之后的结果。Selenium 是 Python 的一个第三方库,对外提供的接口能够操作浏览器,从而让浏览器完成自动化的操作。

2. 为什么使用Selenium?

  Selenium 能模拟浏览器功能自动执行网页中的 JavaScript 代码,实现动态加载。

3. Selenium的安装

  谷歌浏览器驱动下载地址:https://registry.npmmirror.com/binary.html?path=chromedriver/
  查看自己谷歌浏览器的版本,我这里的版本是正式版本116.0.5845.188,驱动下载地址最新的只有114.0.5735.90,所以只能去官网的测试页面下载118.0.5993.70版本的驱动(https://googlechromelabs.github.io/chrome-for-testing/#stable,版本向下兼容),然后把下载的压缩包解压,将exe文件放入 PyCharm 项目的根目录下。
  之后执行pip install selenium命令,安装 selenium 库。

4. Selenium的使用

from selenium import webdriver

# 创建浏览器操作对象
path = 'chromedriver.exe'
browser= webdriver.Chrome(path)

# 访问网站
url = 'https://www.baidu.com'

browser.get(url)
# content = browser.page_source
# print(content)

  需要注意的是,如果你的 selenium 是4.11.2以上的版本,不需要设置driver.exe的路径,selenium 可以自己处理浏览器的驱动程序,因此代码直接改为brower = webdriver.Chrome()即可。
  运行代码,得到下面的效果:

5. Selenium的元素定位

  自动化工具要做的就是模拟鼠标和键盘来操作点击、输入等等元素,但是操作这些元素的前提是找到它们,WebDriver 提供了很多元素定位的方法:

  • 根据标签 id 获取元素:
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    
    # 创建浏览器操作对象
    # path = 'chromedriver.exe'
    browser= webdriver.Chrome()
    
    # 访问网站
    url = 'https://www.baidu.com'
    browser.get(url)
    
    button = browser.find_element(By.ID, 'su')
    # button = browser.find_elements(By.ID, 'su')
    print(button)
    
  • 根据标签 name 属性的值获取元素:
    button = browser.find_element(By.NAME, 'wd')
    print(button)
    
  • 根据 Xpath 语句获取元素;
    button = browser.find_element(By.XPATH, '//input[@id="su"]')
    print(button)
    
  • 根据标签名获取元素:
    button = browser.find_elements(By.TAG_NAME, 'input')
    print(button)
    
  • 根据 bs4 语法获取元素:
    button = browser.find_elements(By.CSS_SELECTOR, '#su')
    print(button)
    
  • 根据标签的文本获取元素(精确定位):
    button = browser.find_elements(By.LINK_TEXT, '地图')
    print(button)
    
  • 根据标签的文本获取元素(模糊定位):
    button = browser.find_elements(By.PARTIAL_LINK_TEXT, '地')
    print(button)
    
  • 根据 class 属性获取元素:
    button = browser.find_element(By.CLASS_NAME, 'wrapper_new')
    print(button)
    

  当我们定位到元素之后,自然就要考虑如何获取到元素的各种信息,selenium 给我们提供了获取元素不同信息的方法:

  • 获取元素属性:
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    
    # 创建浏览器操作对象
    # path = 'chromedriver.exe'
    browser= webdriver.Chrome()
    
    # 访问网站
    url = 'https://www.baidu.com'
    browser.get(url)
    
    button = browser.find_element(By.ID, 'su')
    print(input.get_attribute('class'))
    
  • 获取元素标签名:
    input = browser.find_element(By.ID, 'su')
    print(input.tag_name)
    
  • 获取元素文本:
    input = browser.find_element(By.ID, 'su')
    print(input.text)
    
  • 获取元素位置:
    input = browser.find_element(By.ID, 'su')
    print(input.location)
    
  • 获取元素大小:
    input = browser.find_element(By.ID, 'su')
    print(input.size)
    

6. Selenium的交互

  页面交互指的是我们平时在浏览器上的各种操作,比如输入文本、点击链接、回车、下拉框等,下面就演示 selenium 是如何进行页面交互的。

  • 输入文本:
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    import time
    
    # 创建浏览器操作对象
    # path = 'chromedriver.exe'
    browser = webdriver.Chrome()
    
    # 访问网站
    url = 'https://www.baidu.com'
    browser.get(url)
    
    # 定位输入框
    input = browser.find_element(By.ID, 'kw')
    # 输入文本selenium
    input.send_keys('selenium')
    time.sleep(2)
    
    # 关闭浏览器
    browser.close()
    
  • 点击:
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    import time
    
    # 创建浏览器操作对象
    # path = 'chromedriver.exe'
    browser = webdriver.Chrome()
    
    # 访问网站
    url = 'https://www.baidu.com'
    browser.get(url)
    
    # 定位输入框
    input = browser.find_element(By.ID, 'kw')
    # 输入文本selenium
    input.send_keys('selenium')
    time.sleep(2)
    
    # 定位百度一下的按钮
    button = browser.find_element(By.ID, 'su')
    # 点击按钮
    button.click()
    time.sleep(2)
    
    # 关闭浏览器
    browser.close()
    
  • 清除文本:
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    import time
    
    # 创建浏览器操作对象
    # path = 'chromedriver.exe'
    browser = webdriver.Chrome()
    
    # 访问网站
    url = 'https://www.baidu.com'
    browser.get(url)
    
    # 定位输入框
    input = browser.find_element(By.ID, 'kw')
    # 输入文本selenium
    input.send_keys('selenium')
    time.sleep(2)
    
    # 清除selenium
    input.clear()
    time.sleep(2)
    
    # 关闭浏览器
    browser.close()
    
  • 回车确认:
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    import time
    
    # 创建浏览器操作对象
    # path = 'chromedriver.exe'
    browser = webdriver.Chrome()
    
    # 访问网站
    url = 'https://www.baidu.com'
    browser.get(url)
    
    # 定位输入框
    input = browser.find_element(By.ID, 'kw')
    # 输入文本selenium
    input.send_keys('selenium')
    time.sleep(2)
    
    # 回车查询
    input.submit()
    time.sleep(2)
    
    # 关闭浏览器
    browser.close()
    
  • 运行 JavaScript:
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    import time
    
    # 创建浏览器操作对象
    # path = 'chromedriver.exe'
    browser = webdriver.Chrome()
    
    # 访问网站
    url = 'https://www.baidu.com'
    browser.get(url)
    
    # 定位输入框
    input = browser.find_element(By.ID, 'kw')
    # 输入文本selenium
    input.send_keys('selenium')
    time.sleep(2)
    
    # 回车查询
    input.submit()
    time.sleep(2)
    
    # js代码
    js_bottom = 'document.documentElement.scrollTop=100000'
    # 下拉进度条,页面滑动
    browser.execute_script(js_bottom)
    time.sleep(2)
    
    # 关闭浏览器
    browser.close()
    
  • 前进后退
    from selenium import webdriver
    from selenium.webdriver.common.by import By
    import time
    
    # 创建浏览器操作对象
    # path = 'chromedriver.exe'
    browser = webdriver.Chrome()
    
    # 访问网站
    url = 'https://www.baidu.com'
    browser.get(url)
    
    # 定位输入框
    input = browser.find_element(By.ID, 'kw')
    # 输入文本selenium
    input.send_keys('selenium')
    time.sleep(2)
    
    # 回车查询
    input.submit()
    time.sleep(2)
    
    # js代码
    js_bottom = 'document.documentElement.scrollTop=100000'
    # 页面滑动
    browser.execute_script(js_bottom)
    time.sleep(2)
    
    # 定位下一页的按钮
    next = browser.find_element(By.XPATH, '//a[@class="n"]')
    # 点击下一页
    next.click()
    time.sleep(2)
    
    # 返回到上一页面
    browser.back()
    time.sleep(2)
    
    # 前进到下一页
    browser.forward()
    time.sleep(2)
    
    # 关闭浏览器
    browser.close()
    

7. Chrome handless

  在上面的测试过程中可以发现,虽然 selenium 简便好用,但是它的运行速度很慢,这是因为 selenium 是有界面的,需要执行前端 css 和 js 的渲染。那么下面就介绍一个无界面的浏览器,Chrome-handless 模式,运行效率要比真实的浏览器快很多,在 selenium 的基础上,支持页面元素查找、js 执行等,代码和 selenium 一致。
  使用前提:

  • Chrome
    • Unix\Linux chrome >= 59
    • Windows chrome >= 60
  • Python >= 3.6
  • Selenium >= 3.4.*
from selenium import webdriver

def share_browser():
    # headless自带配置,不需要再做额外的修改
    from selenium.webdriver.chrome.options import Options
    # 初始化
    chrome_options = Options()
    chrome_options.add_argument('‐‐headless')
    chrome_options.add_argument('‐‐disable‐gpu')
    # 谷歌浏览器的安装路径
    path = r'C:\Users\\AppData\Local\Google\Chrome\Application\chrome.exe'
    chrome_options.binary_location = path
    browser = webdriver.Chrome(options=chrome_options)
    return browser

browser = share_browser()
url = 'https://www.baidu.com'
browser.get(url)

# 本地保存照片
browser.save_screenshot('baidu.png')

参考文献

  【1】http://www.noobyard.com/article/p-boitcibx-g.html
  【2】https://www.jb51.net/article/149145.htm
  【3】https://zhuanlan.zhihu.com/p/462460461
  【4】https://blog.csdn.net/weixin_67553250/article/details/127555724
  【5】https://www.cnblogs.com/Summer-skr–blog/p/11491078.html
  【6】https://www.bilibili.com/video/BV1Db4y1m7Ho?p=77

  • 21
    点赞
  • 119
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
爬虫是通过编写程序自动获取互联网上的信息的一种技术手段。Python是一种常用的编程语言,也是爬虫开发中广泛使用的语言之一。下面我将对爬虫的详细内容进行解释。 在Python中,我们可以使用第三方库(例如requests、BeautifulSoup、Scrapy等)来编写爬虫程序。首先,我们需要发送HTTP请求来获取目标网页的内容。这可以通过使用requests库中的get或post方法来实现。 获取到网页内容之后,我们需要对其进行解析和提取所需的数据。这时可以使用BeautifulSoup库来实现网页内容的解析,它提供了简单而强大的API来从HTML或XML文档中提取数据。 在解析完数据后,我们可以对其进行进一步的处理和存储。例如,可以将数据保存到数据库中或将其导出为Excel或CSV文件。 此外,还有一些常见的爬虫技术,例如动态网页爬取、登录验证、反爬虫策略等。对于动态网页爬取,我们可以使用Selenium库来模拟浏览器行为。而对于登录验证和反爬虫策略,我们需要分析目标网站的具体情况,并采取相应的措施来应对。 总结来说,爬虫是一种利用编写程序自动获取互联网信息的技术手段。Python是一种常用的编程语言,也是爬虫开发中广泛使用的语言之一。通过使用第三方库来发送HTTP请求、解析网页内容、处理和存储数据,我们可以编写出强大而高效的爬虫程序。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大Null

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值