这是一篇使用Python模拟登陆##查网站的详细介绍,##查网站上有许多的企业信息,因此抓取##查数据十分重要,本文使用selenium模拟登陆##查网站。
其实我之前就想写这个python模拟登录网站的,因为之前爬虫用的时候感觉还挺好用的,后来想学一下R爬虫再来用R写的,结果最近的爬虫还是用的python,so,给大家用python讲解咯。
今天给大家讲的是模拟登录“##查”这个网站,网站登录页面就是下面这样。
我们用的工具就是PyCharm编译器,类似于R里面的RStudio;
还有就是用Firefox浏览器,这是为了更好的展现结果,当你爬取的数据比较多的时候,建议用Phantomjs,这个无头浏览器爬取速度更快。
首先,导入需要用到的包,这里只有两个,一个是selenium包里面的webdriver函数,另一个则是time包。
然后,定义一个模拟登录函数,这里你需要准备的就是登录所用的账号密码。(原谅我把账号密码马赛克了一下)
最后,直接调用定义的登陆函数就OK啦。
做完这三个部分,就完成了模拟登录。