爬虫第一步,网络信息采集

本文是作者的爬虫经验总结,首先介绍了如何通过robots.txt了解网站的抓取限制,接着利用搜索引擎的site命令估计网站规模,并通过工具识别网站采用的技术,如知乎使用了React框架。
摘要由CSDN通过智能技术生成

自己爬虫经验总结
项目地址

网络信息采集

在编写爬虫之前可能需要先了解和搜集网站信息

robots.txt

Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。一般的网站都会有这个文件。可以大致了解这个网站存在哪些限制

下面是知乎的robots.txt,可以通过https://www.zhihu.com/robots.txt访问

# 禁止今日头条和悟空问答爬虫抓取知乎网站内容
User-agent: *
Request-rate: 1/2 # load 1 page per 2 seconds
Crawl-delay: 
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值