设置不被搜索引擎收录

上传robot.txt到你的网站根目录。

robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。

robots.txt写作语法首先,我们来看一个robots.txt范例:http://www.seovip.cn/robots.txt访问以上具体地址,我们可以看到robots.txt的具体内容如下:# Robots.txt file fromhttp://www.seovip.cn# All robots will spider the domainUser-agent: *Disallow:以上文本表达的意思是允许所有的搜索机器人访问www.seovip.cn站点下的所有文件。具体语法分析:其中#后面文字为说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。下面,我将列举一些robots.txt的具体用法:允许所有的robot访问User-agent: *Disallow:或者也可以建一个空文件 "/robots.txt" file禁止所有搜索引擎访问网站的任何部分User-agent: *Disallow: /禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)User-agent: *Disallow: /01/Disallow: /02/Disallow: /03/禁止某个搜索引擎的访问(下例中的BadBot)User-agent: BadBotDisallow: /只允许某个搜索引擎的访问(下例中的Crawler)User-agent: CrawlerDisallow:User-agent: *Disallow: /

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值