网站优化与推广—robots文件处理

robots文件处理
robots文件对于蜘蛛爬行是非常重要的东西。
一般每个ftp文件中会自动生成robots文件,对于新站长来说会很容易忽略这个非常重要的东西。我们可以下载robots文件,打开可以看见dis开头的单词,这个英文前缀是代表不允许的意思。同理:里面的单词意思是不允许蜘蛛爬行指定文件。这是一个值得注意的事项,之前我打开robots文件,发现自动设置蜘蛛不允许爬行我网站里面的几乎所有的网页,这对于新手站长来书可就亏大发了。
因此,作为新手站长,我建议删除robots文件,在根目录里面可以找到robots文件。等到网站发展到一定规模,我们就要设置robots,以免受蜘蛛的干扰
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值