Selenium 库里有个叫 WebDriver 的 API。WebDriver 有点儿像可以加载网站的浏览器,但是它也可以像 BeautifulSoup ,lxml或者其他 Selector 对象一样用来查找页面元素,与页面上的元素进行交互 (发送文本、点击等),以及执行其他动作来运行网络爬虫。
.
.
.
这是一些基本的操作方法,在后边有详细讲解
# 导入webdriver模块
from selenium import webdriver
# 指定使用Chrome浏览器
driver = webdriver.Chrome()
# get方法会一直等到页面被完全加载,然后才会继续程序。
driver.get("https://baidu.com/")
# 获取页面名为 wrapper的id标签的文本内容
data = driver.find_element_by_id("wrapper").text
# 生成快照,当我们有滑动验证码时这个时候快照就其了作用,将验证图片保存下来分析图片
driver.save_screenshot("baidu.png")
# id="kw"是百度搜索输入框,输入字符串"长城"
driver.find_element_by_id("kw").send_keys("夏天")
# id="su"是百度搜索按钮,click() 是模拟点击
driver.find_element_by_id("su").click()
# 获取当前页面Cookies
cookies = driver.get_cookies()
print(cookies)
# 调用键盘按键操作时需要引入的Keys包
from se