我们都知道网络上的爬虫非常多,有对网站收录有益的,比如百度蜘蛛(Baiduspider),也有不但不遵守 robots 规则对服务器造成压力,还不能为网站带来流量的无用爬虫,比如 YY 蜘蛛(YisouSpider)。最近张戈发现 nginx 日志中出现了好多宜搜等垃圾的抓取记录,于是整理收集了网络上各种禁止垃圾蜘蛛爬站的方法,在给自己网做设置的同时,也给各位站长提供参考。
一、Apache
①、通过修改 .htaccess 文件
修改网站目录下的.htaccess,添加如下代码即可(2 种代码任选):
可用代码 (1):
可用代码 (2):
②、通过修改 httpd.conf 配置文件
找到如下类似位置,根据以下代码 新增 / 修改,然后重启 Apache 即可:
二、Nginx 代码
进入到 nginx 安装目录下的 conf 目录,将如下代码保存为 agent_deny.conf
cd /usr/local/nginx/conf
vim agent_deny.conf
然后,在网站相关配置中的 location / { 之后插入如下代码:
如张戈博客的配置:
保存后,执行如下命令,平滑重启 nginx 即可:
三、PHP 代码
①、PHP 通用版
将如下方法放到贴到网站入口文件 index.php 中的第一个<?php之后即可 :
②、Wordpress 适用版
将下面的代码贴到 functions.php 中的最后一个?>之前即可:
四、测试效果
如果是服务器的话,就很简单,直接通过 curl 命令来检测;当然,如果是虚拟主机的话,也可以通过百度站长平台里的“抓取诊断”来测试~ 下面以服务器为例:
模拟 YY 蜘蛛抓取:
模拟 UA 为空的抓取:
模拟百度蜘蛛的抓取:
三次抓取结果显示,YY 蜘蛛和 UA 为空的返回是 403 禁止访问标识,而百度蜘蛛则成功返回 200,说明生效!
五、附录:UA 收集
下面是网络上常见的垃圾 UA 列表,仅供参考,同时也欢迎你来补充。
本文的方法也可用来防止镜像,具体详见:
本文粗略的介绍什么是恶意镜像网站,以及相关防范镜像的方法,如有错误或遗漏,敬请不宁赐教。【20171022 重要更新,详情请看方法 4~】
2017-10-22
263
1.14w