ubuntu+selenium+chromedriver+python+crontab 爬虫
网站为了反爬,做了访问延迟,不得已只能用selenium。整个过程很复杂我进行大量的省略,防止自己忘记做了一个简要的记录。
1. ubuntu上自行安装chrome、mysql、pymysql。使用mysql是为了存储爬取地址。
2. chromedriver与Chrome浏览器版本要对应(网上有),chromedriver放到/usr/bin目录(windows是放在Python安装目录的S...
原创
2018-11-29 21:06:21 ·
956 阅读 ·
0 评论