php禁止网页抓取,服务器反爬虫攻略:Apache/Nginx/PHP禁止某些User Agent抓取网站 - 龙笑天下...

0687777d72292bfd225e6008826fe02b.png

我们都知道网络上的爬虫非常多,有对网站收录有益的,比如百度蜘蛛(Baiduspider),也有不但不遵守 robots 规则对服务器造成压力,还不能为网站带来流量的无用爬虫,比如 YY 蜘蛛(YisouSpider)。最近张戈发现 nginx 日志中出现了好多宜搜等垃圾的抓取记录,于是整理收集了网络上各种禁止垃圾蜘蛛爬站的方法,在给自己网做设置的同时,也给各位站长提供参考。

一、Apache

①、通过修改 .htaccess 文件

修改网站目录下的.htaccess,添加如下代码即可(2 种代码任选):

可用代码 (1):

可用代码 (2):

②、通过修改 httpd.conf 配置文件

找到如下类似位置,根据以下代码 新增 / 修改,然后重启 Apache 即可:

二、Nginx 代码

进入到 nginx 安装目录下的 conf 目录,将如下代码保存为 agent_deny.conf

cd /usr/local/nginx/conf

vim agent_deny.conf

然后,在网站相关配置中的 location / { 之后插入如下代码:

如张戈博客的配置:

保存后,执行如下命令,平滑重启 nginx 即可:

三、PHP 代码

①、PHP 通用版

将如下方法放到贴到网站入口文件 index.php 中的第一个<?php之后即可 :

②、Wordpress 适用版

将下面的代码贴到 functions.php 中的最后一个?>之前即可:

四、测试效果

如果是服务器的话,就很简单,直接通过 curl 命令来检测;当然,如果是虚拟主机的话,也可以通过百度站长平台里的“抓取诊断”来测试~ 下面以服务器为例:

模拟 YY 蜘蛛抓取:

模拟 UA 为空的抓取:

模拟百度蜘蛛的抓取:

三次抓取结果显示,YY 蜘蛛和 UA 为空的返回是 403 禁止访问标识,而百度蜘蛛则成功返回 200,说明生效!

五、附录:UA 收集

下面是网络上常见的垃圾 UA 列表,仅供参考,同时也欢迎你来补充。

本文的方法也可用来防止镜像,具体详见:

anti-web-spiders.html

anti-web-spiders.html

本文粗略的介绍什么是恶意镜像网站,以及相关防范镜像的方法,如有错误或遗漏,敬请不宁赐教。【20171022 重要更新,详情请看方法 4~】

2017-10-22

263

1.14w

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值