Python爬虫
FANtastic_Y
这个作者很懒,什么都没留下…
展开
-
scrapy
安装scrapy参考链接https://blog.csdn.net/qq_42543250/article/details/813473681.创建项目scrapy startproject XXX(项目名字)2.创建爬虫 scrapy genspider 爬虫名字 网站域名注意 1)爬虫的名字不要和项目名字一样 2)网站域名是允许爬虫采集的域名...原创 2019-11-24 21:21:46 · 150 阅读 · 0 评论 -
python selenium爬取百度文库
参考博客 selenium官方教程 注意事项 电脑版的网页源码中没有文库的内容,该方法适用于手机版的百度文库 文档的内容有多页时需要点击继续阅读和加载更多按钮在对这两个标签进行定位时,开始参考了这位博主写的方法,由于文库的网页源码更改故失败了。后来受这位博主启发链接完成了‘继续阅读’的点击,但是这种方式用到‘点击加载更多’时又出现了标签覆盖的情况。具体见代码。...原创 2019-11-09 21:55:35 · 500 阅读 · 0 评论