屏蔽常见垃圾蜘蛛和扫描工具的两种办法

下面给大家带来两种屏蔽垃圾蜘蛛的方法

方法一
通过网站Robots.txt来屏蔽

User-agent: AhrefsBot
Disallow: /

User-agent: DotBot
Disallow: /

User-agent: SemrushBot
Disallow: /

User-agent: Uptimebot
Disallow: /

User-agent: MJ12bot
Disallow: /

User-agent: MegaIndex.ru
Disallow: /

User-agent: ZoominfoBot
Disallow: /

User-agent: Mail.Ru
Disallow: /

User-agent: SeznamBot
Disallow: /

User-agent: BLEXBot
Disallow: /

User-agent: ExtLinksBot
Disallow: /

User-agent: aiHitBot
Disallow: /

User-agent: Researchscan
Disallow: /

User-agent: DnyzBot
Disallow: /

User-agent: spbot
Disallow: /

User-agent: YandexBot
Disallow: /

把以上代码复制到网站robots.txt里面
方法二
通过宝塔面板配置文件判断来屏蔽垃圾蜘蛛和扫描工具
1.首先进入宝塔面板,文件管理进入/www/server/nginx/conf目录,新建空白文件kill_bot.conf。然后将以下代码保存到当前文件中。

```html
if ($http_user_agent ~* "CheckMarkNetwork|Synapse|Nimbostratus-Bot|Dark|scraper|LMAO|Hakai|Gemini|Wappalyzer|masscan|crawler4j|Mappy|Center|eright|aiohttp|MauiBot|Crawler|researchscan|Dispatch|AlphaBot|Census|ips-agent|NetcraftSurveyAgent|ToutiaoSpider|EasyHttp|Iframely|sysscan|fasthttp|muhstik|DeuSu|mstshash|HTTP_Request|ExtLinksBot|package|SafeDNSBot|CPython|SiteExplorer|SSH|MegaIndex|BUbiNG|CCBot|NetTrack|Digincore|aiHitBot|SurdotlyBot|null|SemrushBot|Test|Copied|ltx71|Nmap|DotBot|AdsBot|InetURL|Pcore-HTTP|PocketParser|Wotbox|newspaper|DnyzBot|redback|PiplBot|SMTBot|WinHTTP|Auto Spider 1.0|GrabNet|TurnitinBot|Go-Ahead-Got-It|Download Demon|Go!Zilla|GetWeb!|GetRight|libwww-perl|Cliqzbot|MailChimp|SMTBot|Dataprovider|XoviBot|linkdexbot|SeznamBot|Qwantify|spbot|evc-batch|zgrab|Go-http-client|FeedDemon|JikeSpider|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|YisouSpider|HttpClient|MJ12bot|EasouSpider|LinkpadBot|Ezooms") {
 return 403;
 break;
}

#禁止扫描工具客户端
if ($http_user_agent ~* "crawl|curb|git|Wtrace|Scrapy" ) {
 return 403;
 break;
}

2.保存后返回到宝塔 – 【网站】-【设置】点击左侧 【配置文件】选项卡,在 “#SSL-START SSL相关配置,请勿删除或修改下一行带注释的404规则” 上方空白行插入红色字体的代码:“include kill_bot.conf; ” 保存后即可生效,这样这些蜘蛛或工具扫描网站的时候就会提示403禁止访问。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 百度pc端强引蜘蛛工具是百度搜索引擎提供给网站管理员或优化人员的一种工具,用于帮助网站提升在百度搜索结果中的排名。蜘蛛是搜索引擎中的程序,负责抓取互联网上的网页内容,并将其加入搜索引擎的索引中。而强引蜘蛛工具则是一种让蜘蛛更加频繁抓取网站内容的工具。 使用百度pc端强引蜘蛛工具,网站管理员可以控制蜘蛛频繁抓取网站的时间和次数,以便更快地将新内容加入搜索引擎的索引中。通过提供高质量且有价值的内容,网站可以吸引更多用户并提高在搜索结果中的排名。 强引蜘蛛工具还可以帮助网站管理员检查网页的抓取状态和错误。通过查看工具提供的抓取日志,管理员可以知道蜘蛛是否成功抓取了网站的所有页面,以及是否有错误导致某些页面无法抓取。通过及时纠正错误,管理员可以确保网站的所有内容都能被搜索引擎收录,提升网站的曝光度和流量。 然而,强引蜘蛛工具并不是万能的,它只是辅助网站优化的一种工具。网站要想获得好的排名,还需要更多的工作,如合理设计网站架构、优化关键词和网页内容、提高用户体验等等。网站管理员需要综合运用各种优化手段,才能使网站在百度搜索结果中获得更好的展现效果。 ### 回答2: 百度PC端的强引蜘蛛工具是一种搜索引擎爬虫程序,用于辅助网站管理员快速收录网页和更新网页内容。它被设计用于主动引导百度搜索引擎的蜘蛛(即百度爬虫)来爬取并收录特定的网页。该工具可以通过发送请求和注入页面来操作蜘蛛爬取网页,进而实现网页内容的更新和收录。 百度强引蜘蛛工具的使用方法相对简单。管理员可以通过登录百度站长平台,找到蜘蛛工具的功能入口,在对应的页面中输入要引导蜘蛛爬取的网页URL或者网页的sitemap.xml文件地址,并提交操作。之后,百度的蜘蛛会根据设置的参数和优先级来快速爬取并收录指定的网页。 强引蜘蛛工具的优势在于提高网页的收录速度和结果的准确性。通过使用该工具,网页可以更迅速地被蜘蛛爬取和更新,从而在百度搜索引擎的结果中更快地展示。这对于网站优化和提高曝光度来说是非常重要的。 虽然强引蜘蛛工具可以加速蜘蛛的爬取速度,但是需要注意不要滥用该工具。过度使用可能会导致百度搜索引擎认为是恶意行为,甚至可能引起搜索权重的下降。因此,管理员在使用强引蜘蛛工具时应该合理设置参数,并遵守百度站长平台的规定和建议。 总之,百度PC端的强引蜘蛛工具是一款方便网站管理员快速收录和更新网页内容的工具。正确使用该工具可以提高网页收录速度和结果准确性,但需要合理设置,避免滥用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值