如何做到优化引擎搜索SEO之第七篇:robots.txt

前文:《如何做到优化引擎搜索SEO(有HTML,关键字,Ajax,url,内容顺序等)》

英文原文来源:clickhelp博客

英文原文:Online Documentation and SEO. Part 7 - Robots.txt

下文均为翻译+自己的注解和想法
(所有ClickHelp打广告部分用浅灰色注解)


翻译:

  通常,每个网站都有搜索引擎不应该索引的目录和页面。比如,印刷版本的网站页面,页面安全系统(注册、身份验证),可能还有目录管理员资源文件夹,各种技术文件夹。此外,网站管理员可能想给索引搜索引擎提供更多的信息。例如,sitemap.xml文件的位置。
  所有这些任务都是通过robots.txt文件执行。这仅仅是一个文本文件的一个特定的格式,你把它放在您的网站上(到主目录),网络爬虫知道如何正确地索引网站内容。此文件格式完全规范,可在谷歌开发者门户网站找到。时,谷歌网站管理员工具提供确保你正确的创建文件,这个功能是在爬封锁网址段

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值