Nginx防爬虫

本文介绍了如何利用Nginx实现防爬虫措施,包括设置robots.txt禁止搜索引擎抓取,通过HTTP_USER_AGENT判断并阻止特定爬虫,以及限制非标准HTTP请求方法。这些方法有助于保护网站资源不被过度抓取。
摘要由CSDN通过智能技术生成

Robots协议 爬虫协议 通过robots告诉搜索引擎哪些页面可以抓取,哪些不能抓取 robots.txt放到网站根目录
www.taobao.com/robots.txt 查看网站robots
阻止下载协议代理
if ($http_user_agent ~* LWP::Simple|BBBike|wget) {
return 403
}
或编辑网站跟目录下robots.txt文件
vim /application/nginx/html/INNOVATION/robots.txt
User-agent: *
Disallow: /

禁止多数网站爬虫
if ($http_user_agent ~* “qihoobot|baiduspider|googlebot|googlebot-mobile|googlebot-image|mediapartners-google|adsbot-google|yahoo! slurp china|youdaobot|sosospider|sogouspider|sogou web spider|msnbot”) {
return 403
}

nginx限制http请求方法
r e q u e s t

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值