网址受到robots.txt的限制是一个非常重大的问题,如果一个网址受到robots.txt的限制,那么Google就不能够正确的索引并更新该网站。以下是Google官方博客对于robots.txt限制的解释。 什么是"网址受到 robots.txt 的限制"错误? Google 因受 robots.txt 限制而无法抓取此网址。这种情况可能是由多种原因造成的。例如,您的 robots.txt 文件可能完全禁止 Googlebot;可能禁止对此网址所在目录的访问,也可能特别禁止访问此网址。通常,这并不属于错误。您可能专门设置了一个 robots.txt 文件来阻止我们抓取此网址。如果是这种情况,则无需更正;我们将继续遵循此文件的 robots.txt。 如果一个网址重定向到一个被 robots.txt 文件拦截的网址,则第一个网址会报告为被 robots.txt 拦截(即使该网址在 robots.txt 分析工具中列为"允许") 来源:SEO部落