爬虫爬网站不免遇到需要登录的问题. 登录的时候可能还会碰到需要填验证码的问题, 有的验证码甚至是拖动拼图来完成的. 虽然现在这些都有开源解决方案, 但是假设现在只是自己做个小小的不具规模的爬虫来玩一玩; 或者主要的精力想要放在如何解析 html, 或者验证抓取算法上, 而不是通过登录验证上, 那么开源解决方案并不是最好的解决方案.
更好的方案是获取浏览器的 Cookies, 然后让 requests 这个库来直接使用登录好的 Cookies
一般方式:打开浏览器的开发者模式在console里输入document.cookie,复制出来贴到代码里的
另一种方式:从电脑本地获取cookie,下面给出一个 get_chrome_cookies(url) 函数, 可以获取 Chrome 浏览器的 Cookies 信息. 程序在 Windows 下调试通过, 因为 C 盘需要特殊权限来读写文件, 因此程序先将 Cookies 数据库文件拷贝到 D 盘. 该方法用到了第三方库 win32crypt.
使用方法: x = requests.get(url, cookies = get_chrome_cookies(domain))
登录知乎: x = requests.get("http://www.zhihu.com, cookies=get_chrome_cookies(".zhihu.com"))
转自https://jecvay.com/2015/03/python-chrome-cookies.html