在编写爬虫,或者模拟浏览器进行一些操作时,如果每次都模拟用户输入账号密码登陆,实现步骤较为复杂,登陆后抓取cookies,在后续操作中使用cookies登陆是一种较为简便的方法。
因此,本文使用python3 + chromedriver,帮助完成cookies的抓取。
需要安装python3环境,安装selenium和json包,并下载对应版本的chromedriver
from selenium import webdriver
import json
options = webdriver.ChromeOptions()
options.add_experimental_option("excludeSwitches", ["enable-automation"