网站的robots可以屏蔽网站的js吗?
最近发现网站的js文件被蜘蛛抓取的特别频繁,抓取占比达到了2分之1,那么遇到这种情况到底要不到把js文件给屏蔽了呢?
一、robots全部屏蔽掉不太建议,因为随着网页的发展,资源种类越来越多,蜘蛛需要分析;
二、根据之前看到的百度对网页主体内容模板的专利的简单介绍可以得出下面几个观点:
1、百度能够根据前台页面的链接布局、框架,判断出一个站点的主要页面类型,及各页面适合用户浏览的主体内容;
2、因此如果js如果对蜘蛛判断站点的主体内容没有什么影响,比如遮罩、跟踪用户行为返回区域内容变化,那么屏蔽完全可以,但是从实际的例子来说可能对站点其他主体内容页面的抓取频次没有多大帮助,因为主体内容与js本来就互不相关的两类东西;
3、如果js对蜘蛛判断站点的主体内容有影响,如包含较多网址、图片地址、有效资源地址、文字资源等建议不屏蔽,蜘蛛爬取js文件的同时可以爬取里面的内容,并且尽量简单处理,不要采用ajax或多重逻辑判断的代码;