python爬虫入门—selenium常规操作

Selenium 库里有个叫 WebDriver 的 API。WebDriver 有点儿像可以加载网站的浏览器,但是它也可以像 BeautifulSoup ,lxml或者其他 Selector 对象一样用来查找页面元素,与页面上的元素进行交互 (发送文本、点击等),以及执行其他动作来运行网络爬虫。...这是一些基本的操作方法,在后边有一一讲解# 导入webdriver模块from selenium import webdriver# 指定使用Chrome浏览器driver = webdri
摘要由CSDN通过智能技术生成

Selenium 库里有个叫 WebDriver 的 API。WebDriver 有点儿像可以加载网站的浏览器,但是它也可以像 BeautifulSoup ,lxml或者其他 Selector 对象一样用来查找页面元素,与页面上的元素进行交互 (发送文本、点击等),以及执行其他动作来运行网络爬虫。

.
.
.
这是一些基本的操作方法,在后边有详细讲解

# 导入webdriver模块
from selenium import webdriver

# 指定使用Chrome浏览器
driver = webdriver.Chrome()

# get方法会一直等到页面被完全加载,然后才会继续程序。
driver.get("https://baidu.com/")

# 获取页面名为 wrapper的id标签的文本内容
data = driver.find_element_by_id("wrapper").text


# 生成快照,当我们有滑动验证码时这个时候快照就其了作用,将验证图片保存下来分析图片
driver.save_screenshot("baidu.png")

# id="kw"是百度搜索输入框,输入字符串"长城"
driver.find_element_by_id("kw").send_keys("夏天")
# id="su"是百度搜索按钮,click() 是模拟点击
driver.find_element_by_id("su").click()

# 获取当前页面Cookies
cookies = driver.get_cookies()
print(cookies)

# 调用键盘按键操作时需要引入的Keys包
from se
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值