robots.txt是一个最简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。关于robots.txt一般站长需要注意以下几点:
1、如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。必须命名为:robots.txt,都是小写,robot后面加"s"。robots.txt必须放置在一个站点的根目录下。如:通过http://www.wk.com/robots.txt 可以成功访问到,则说明本站的放置正确。
2、一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。至少要有一个Disallow函数,如果都允许收录,则写: Disallow: ,如果都不允许收录,则写:Disallow: / (注:只是差一个斜杆)。一般按照下面两种情况设置即可:
robots.txt(允许访问所有目录)
User-Agent: *
Allow: /
robots.txt(禁止访问所有目录)
User-Agent: *
Disallow: /
复制上面的代码到文本,存为robots.txt,上传到网站的根目录即可。User-agent: * 星号说明允许所有搜索引擎收录。
附:
1、ECShop的robots.txt
User-agent: *
Disallow: /admin/
Disallow: /cert/
Disallow: /data/
Disallow: /includes/
Disallow: /install/
Disallow: /languages/
Disallow: /plugins/
Disallow: /templates/
Disallow: /themes/
Disallow: /upgrade/
Disallow: /api/
Disallow: /js/
Disallow: affiche.php
Disallow: captcha.php
Disallow: comment.php
Disallow: cycle_image.php
Disallow: goods_script.php
Disallow: receive.php
Disallow: region.php
Disallow: respond.php
2.ShopEx的robots.txt
User-agent: *
Disallow: /syssite/shopadmin/
Disallow: /shopadmin/
Disallow: /syssite/install/
Disallow: /install/
大家可以从上面学习rebots.txt的用法,特别是针对网店的rebots.txt