爬虫基本流程
• 获取网页源代码:通过库来实现,urllib,requests等实现http请求
• 提取信息:分析网页源代码,提取数据,如正则表达式,beautiful soup,pyquery,lxml等
• 保存数据:保存为txt,json或数据库
拉取什么数据
• Html代码
• Json字符串(api接口,手机端大部分是这种数据格式)
• 二进制文件(图片,音频,视频等)
• 各种扩展名的文件:css,JavaScript,各种配置文件等
JavaScript渲染页面
• 用urllib或requests抓取网页时,得到的源代码和浏览器中看到的 不一样
• 越来越多的网页采用ajax、前端模块化工具来构建,整个网页都JavaScript渲染出来的
• 需要分析ajax接口,或使用selenium等库实现模拟JavaScript渲染
• 页面渲染
cookies
• cookies在浏览器端,在访问动态网页时候浏览器会自动附带上它发送给服务器,服务器通过识别cookies并鉴定其是哪个用户,判断其是否登录状态,然后返回对应的响应
• cookies
爬虫代理
• 代理网络用户去取得网络信息
代理的作用:突破自身IP访问限制,访问团体内部资源,提高访问 速度,隐藏真实IP
• 爬虫代理可以获得较好的爬取效果(防止被封禁或输入验证码登录)
检查robots.txt
Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取
当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面