因为最近学习爬虫遇到一个问题,在网上爬的链接资源带密码特别多,想把他们存到百度云盘里面为了实现这一目标,看了很多代码,大体上分为两种:
一种是 :python+selenium+autoit 但是还要借助AutoIT,我对它也没有接触过,也不想用其他软件就想用python完成
另一是 :通过cookies模拟 这种较第一种来说更是复杂需要更多的经验
鉴于以上两种我还是自己仔细的学习了一下selenium ,因为它比cookies简单的多得多,学完后发现 只需要python+selenium 就能够实现这一案例。
环境准备:
python 3.6.x
Chrome (我用的是chrome,建议用最新版本)
windows
所需框架:
selenium
安装方法:
pip install seleniuum
这里只提供思路具体自己琢磨琢磨
步骤分析:
一.账号密码登陆 (可以手动登陆也可以自动登陆,为了装逼还是自动登陆吧)
由于Selenium打开浏览器后是没有密码保存的,也就是说不会使用你本地浏览器保存的cookie,就和新装的浏览器一样你只要关闭浏览器就会重置浏览器,所以说这一步不能少
二.获取链接,密码(如果没有密码直接获取资源)
首先我将爬取到的资源链接放到桌面,学习就是这样解决了一个问题下一个问题就来了,重在坚持!
三.保存到百度云盘
这个是这篇的重点,也可以用它学习一下Selenium,Selenium是真的好用(selenium是模拟人的操作陆,自己学习一下很好玩的,需要一个陆好的浏览器,极力推荐chrome F12)
附上本人联系方式交流
qq:935434065