python爬虫页面按钮未加载报错selenium.common.exceptions.NoSuchElementException问题解决
- 前言
在爬取公司内部网站数据时,是通过先生成下载任务,再切换至下载界面,点击下载按钮下载数据,简单来说,只是模拟人对浏览器的点击动作,进而将重复性工作自动化
- 道路坎坷,bug出现
昨天终于成功将爬取的数据插入数据库,并且在今天早上刚上班之际,发现昨天下班前还在执行的爬虫脚本完美的运行完毕,瞬间沾沾自喜,心想:“不错不错,总算可以稳定爬取数据了”,可当我喜滋滋的运行今天的爬虫后没多久,就被泼了盆冷水,没错,程序报错了,报的就是标题提到的错误:
selenium.common.exceptions.NoSuchElementException
打开浏览器,瞬间发现是由于下载数据的【下载】按钮不可按导致的,之前考虑到过导出任务生成,到任务加载完毕,需要时间缓冲,就简单粗暴的time.sleep(60)
等待60秒后再切换到下载界面,结果系统卡着的时候60秒任务仍未生成完毕,切换到下载界面时下载按钮仍然为灰色,不可点击,所以报错。
- 解决思路及过程
前期在编写整体爬虫时曾遇到过此类问题,当时百度到用的是显示等待
element = WebDriverWait(self.driver, 10).until(
EC.element