前言:
这篇文章还是是为了帮助一些
像我这样的菜鸟
找到简单的题解
题目描述
进入网址
解题工具:
浏览器和我的题解
问题解析:
看不懂...ing
In this little training challenge, you are going to learn about the Robots_exclusion_standard.
The robots.txt file is used by web crawlers to check if they are allowed to crawl and index your website or only parts of it.
Sometimes these files reveal the directory structure instead protecting the content from being crawled.
Enjoy!
翻译一下
在这个小小的训练挑战中,您将了解Robots_exclusion_standard。
网络爬虫使用 robots.txt 文件来检查它们是否被允许爬网和索引您的网站或其中的一部分。
有时,这些文件会揭示目录结构,而不是保护内容不被抓取。
享受!
看到了robots.txt
可以参考我的上一篇文章
和这道题一样可以查看robots.txt
解题过程:
首先
查看robots.txt
发现f10g.php
访问发现flag