# -*-coding:utf-8-*-
from selenium import webdriver
import time
import json
from selenium.webdriver.common.by import By
data = []
driver = webdriver.Chrome() # 创建Chrome对象.
driver.maximize_window()
# 操作这个对象.
driver.get('http://www.*****.net/ascs/login') # get方式访问
time.sleep(5)
el = driver.find_element(By.XPATH, "//input[@type='text']")
el.send_keys('***')
time.sleep(2)
el = driver.find_element(By.XPATH, "//input[@type='password']")
el.send_keys('****')
time.sleep(2)
el = driver.find_element(By.XPATH, "//button[@type='button']")
el.click()
time.sleep(5)
# 获取网站cookie
diccookie = driver.get_cookies()
fw = open('cookie.txt', 'w')
json.dump(diccookie, fw)
fw.close()
# el = driver.find_element_by_class_name("shadow-close")
# el.click()
# time.sleep(2)
# 滚动到浏览器顶部
js_top = "var q=document.documentElement.scrollTop
利用Chrome driver 爬取网站信息 需要验证码的不管用
最新推荐文章于 2023-07-09 12:16:31 发布
本文探讨如何使用Python的Chrome driver在遇到验证码的网页上进行爬虫操作。尽管Chrome driver通常能有效抓取网页信息,但在处理验证码时可能会遇到挑战。我们将讨论可能的解决方案和技术,包括模拟用户行为、使用第三方库以及验证码识别服务,以克服这一难题。
摘要由CSDN通过智能技术生成