不用robots.txt禁止搜索引擎抓取存在安全隐患?

曾经的百度引擎只要会搜索就会出现无数网站的后台地址,现在只会出现下面这些。

以上只是js文件而已,根本没必要对用户展示的,如果集中放于某文件夹,再用robots.txt禁止抓去也好。

许多源码就是这样的,像dz论坛。这个是开源的就算了,想下载就能下载到的,如果是自己开发的,对自己的东西还不熟悉嘛,如果这样做,给别人分析自己的web程序提供了便利,就因为你目录清晰,像admin别人一看就知道是干什么的。

大多数个人那个开发能力,就只是admin.php这样的换个名字,比如zhifubao.php这样,甚至连换个目录,或把目录名改了都做不到,一个改就导致不能用。

而团结开发的,往往都很规范,还是那dz举例,一看目录名和文件名就基本知道是干什么的。

要知道在web渗透中,随便拿个软件就能探测,罗列出这些文件夹和文件只是入门前的功夫,要是还把重要文件夹放在robots.txt中一目了然,以为能屏蔽抓取,结果方便了别有用心的。

最后的方法其实是改名字为一大串英文字母加数字,不要在前台加什么链到后台的链接,管理员登陆后才有的也不要。

然后来一堆名字与其类似但没有用的文件。

然后不要一进去就说这个是XX后台,改掉。

最好的名字是文章标题,然后全部是文章内容,最下面才是管理员登陆。

就算被搜索引擎抓了,没来的及改地址,别人怎么看都只是一篇文章而已,肯定没想到居然是后台。

这样子基本能防小白。

遇到真心要弄你的,就防君子不防小人了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值