robots.txt配合google网站管理员工具进行快速删除google收录

新版google工具在【优化】栏目进行删除网址。

google网站管理员工具介绍

google的“网站管理员工具”,是非常强大的,如果你能够熟练的使用它,你的网站将得到不少的提高,这不仅限于google优化哦,还有助于对其它搜索引擎优化。当然是google的工具,它还是偏重于google的,它能够获取google蜘蛛关于抓取、编入索引和搜索流量的数据,接收关于您网站上所存在的问题的通知。这么好的工具,你还等什么,走赶快使用吧。
中文网址:http://www.google.com.hk/intl/zh-CN/webmasters/
点击“Sign in to WebmasterTools”,进入登陆页面,请输入你的google帐户登陆吧!

Google的工具访问速度太慢或打不开,是因为墙太高了,你需要站在墙外操作,如使用 VPN 或 代理。

google网站管理员工具添加和验证您的网站



如果以上步骤正确,你的网站会出现在第一个图片上面,灰色表示未验证,蓝色表示已验证。

google网站管理员工具使用指南

控制台





邮件

Google 有时会向您发送邮件,告知您我们在您帐户中的网站上发现的问题。这些邮件都显示在邮件中心内,最新的邮件会显示在网站站长工具首页上。

网站配置

这里是你网站优化的最重要窗口了,你要认真看哦!

Sitemaps

提交 Sitemap 可以帮助 Google 了解在您的网站上没有发现的网页。

抓取工具的权限

可以测试和生成robots.txt文件,并提供删除google已抓取的网页。

网站链接

是指向网站的内部网页的链接。并非所有网站都有网站链接。Google 会自动生成这些链接,但您可删除不想要的网站链接。

地址更改

如果您计划将网站转移到新域,请使用地址更改工具告诉 Google 您的新网址。

设置

设置您网站的地理区域,首选域名,自定义google抓取速度

网址参数

如果您使用的动态页面,这里帮助很大哦!你可以点击“了解详情”获取google的帮助。

网络上的网站

搜索查询

列出您的网站出现在相应搜索结果中的热门搜索查询,以及用户实际点击进入您网站的查询。

指向您网站网页的链接

提供您网站上链接到其他网站的网页的详情。

网站链接

是指向网站的内部网页的链接。并非所有网站都有网站链接。Google 会自动生成这些链接,但您可删除不想要的网站链接。

关键字

列出 Google 在您网站上发现的最重要的字词。这可让您深入了解用户对您网站内容的看法。

内部链接

网页会列出链接到同一网站上其他网址的网址。

订阅者统计信息

提供了关于使用 Google 服务(例如 Google 阅读器)订阅您网站的用户数量的数据。

Google+1指标

以下数据必需要在你使用google +1按钮后才会出现,并且搜索影响只对英文站点有效。

搜索影响

清楚地了解“+1”是如何影响您网站在搜索结果中的排名的。

活动

显示了您的网页被“+1”的统计数。

受众

您网页“+1”的用户的相关信息,包括唯一身份用户总数、用户的所在位置以及用户的年龄和性别。

故障诊断

以下数据必需要在你使用google +1按钮后才会出现,并且搜索影响只对英文站点有效。

恶意软件

检测您网站是否有恶意软件。

抓取错误

提供了有关我们在您的网站上尝试抓取但却无法访问的网址的详细信息。移动抓取错误页中提供了有关我们在您的移动网站上抓取网址时所遇到的问题的详细信息。

抓取统计信息

90 天内 Googlebot 的活动示意图。

像 Googlebot 一样抓取

“Googlebot 抓取方式”工具能让用户以 Googlebot 的方式查看网页。排查网页搜索结果很少的问题时,该工具特别有用。

HTML 建议

google 对你的代码提出的建义,比如:重复标题、长的元说明、缺少标题……

实验室

用于测试各种尚未完全成熟的实验性功能,也很有帮助哦。

Google SEO官方手册中文版下载

我不得不说google是一个伟大的公司,她提供了各种工具和帮助手册,并且还有论坛、博客,全球最大的并且最受欢迎的搜索引擎当之无愧,百度真是望风@#~!@@¥%#@@&……%&……%&¥##@
请右键另存为或使用工具下载:Google SEO官方手册中文版


习惯性今天site:www.webUrl.cn,网站收录没少还多了一页,汗!登陆管理员工具查看,发现是被Google拒绝了,原因就是因为没有在相应的robots.txt中屏蔽,今天补上robots屏蔽谷歌索引的内容,重新申请一下!

修改robots.txt文件内容如下:

User-agent:*

Allow:/

User-agent:Googlebot

Disallow:/

11月27日晚21点,在谷歌site本站,收录已经清零,由此来看,谷歌做事效率确实很高,通过robots.txt+Google网站管理员工具,可以在几个小时内整个删除网站(网页),当然如果你想恢复,同样也可以在几个小时之后恢复!


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
利用robots.txt文件可以限制搜索引擎的爬虫程序(也称为漫游器)访问特定的网页或文件。通过设置不同的规则,您可以控制搜索引擎在抓取和索引您的网站时的行为。以下是一些使用robots.txt文件的示例: 1. 阻止某个目录的访问: User-agent: * Disallow: /private/ 这个规则会阻止所有的搜索引擎爬虫访问名为"private"的目录下的所有网页。 2. 阻止特定文件类型的访问: User-agent: * Disallow: /*.gif$ 这个规则会阻止所有的搜索引擎爬虫访问以".gif"为后缀的文件。 3. 阻止带有参数的URL访问: User-agent: * Disallow: /*? 这个规则会阻止所有的搜索引擎爬虫访问带有问号的URL,即带有参数的URL。 需要注意的是,尽管设置了robots.txt文件可以阻止搜索引擎爬虫爬取和索引特定的内容,但这并不意味着这些内容不会出现在搜索结果中。如果被阻止的内容在其他网页上被发现,搜索引擎仍然会抓取并索引这些内容的URL,但不会显示具体的内容。 在创建robots.txt文件之前,您需要考虑哪些内容应该被搜索引擎收录,哪些内容应该被保护。合理使用robots.txt可以同时保护隐私信息并确保搜索引擎将用户引导到您的网站上。您可以使用Google提供的robots.txt分析工具来验证您的规则是否生效。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [如何使用robots.txt及其详解](https://blog.csdn.net/weixin_33735077/article/details/85417749)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值