商城robot.txt规则

robots.txt是一个最简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。关于robots.txt一般站长需要注意以下几点:

1、如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。必须命名为:robots.txt,都是小写,robot后面加"s"。robots.txt必须放置在一个站点的根目录下。如:通过http://www.wk.com/robots.txt 可以成功访问到,则说明本站的放置正确。

 

2、一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。至少要有一个Disallow函数,如果都允许收录,则写: Disallow: ,如果都不允许收录,则写:Disallow: / (注:只是差一个斜杆)。一般按照下面两种情况设置即可:

 

robots.txt(允许访问所有目录)

User-Agent: *

Allow: /

 

robots.txt(禁止访问所有目录)

User-Agent: *

Disallow: /

 

复制上面的代码到文本,存为robots.txt,上传到网站的根目录即可。User-agent: * 星号说明允许所有搜索引擎收录。

 

附:

1、ECShop的robots.txt

User-agent: *

Disallow: /admin/

Disallow: /cert/

Disallow: /data/

Disallow: /includes/

Disallow: /install/

Disallow: /languages/

Disallow: /plugins/

Disallow: /templates/

Disallow: /themes/

Disallow: /upgrade/

Disallow: /api/

Disallow: /js/

Disallow: affiche.php

Disallow: captcha.php

Disallow: comment.php

Disallow: cycle_image.php

Disallow: goods_script.php

Disallow: receive.php

Disallow: region.php

Disallow: respond.php

 

2.ShopEx的robots.txt

User-agent: *

Disallow: /syssite/shopadmin/

Disallow: /shopadmin/

Disallow: /syssite/install/

Disallow: /install/

 

大家可以从上面学习rebots.txt的用法,特别是针对网店的rebots.txt

转载于:https://www.cnblogs.com/wk0423/archive/2011/06/21/2085631.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值