利用 robots.txt

2017-04-12  本文已影响0人  崔渣渣

利用 robots.txt

要想进一步侦查,我们需要弄清楚是否站点有任何页面或目录没有链接给普通用户看。例如,内容管理系统或者内部网络的登录页面。寻找类似于它的站点会极大扩大我们的测试面,并给我们一些关于应用及其结构的重要线索。

这个秘籍中,我们会使用robots.txt文件来发现一些文件和目录,它们可能不会链接到主应用的任何地方。

操作步骤

浏览http://192.168.56.102/vicnum/

现在我们向 URL 添加robots.txt,之后我们会看到如下截图:

这个文件告诉搜索引擎,jotto和cgi-bin的首页不允许被任何搜索引擎(User Agent)收录。

让我们浏览http://192.168.56.102/vicnum/cgi-bin/

我们可以直接点击和访问目录中的任何 Perl 脚本。

让我们浏览http://192.168.56.102/vicnum/jotto/

点击名称为jotto的文件,你会看到一些类似于下面的截图的东西:

Jooto 是个猜测五个字符的单词的游戏,这会不会是可能答案的列表呢?通过玩这个游戏来检验它,如果是的话,我们就已经黑掉了这个游戏。

工作原理

robots.txt是 Web 服务器所使用的文件,用于告诉搜索引擎有关应该被索引,或者不允许查看的文件或目录的信息。在攻击者的视角上,这告诉了我们服务器上是否有目录能够访问但对公众隐藏。这叫做“以隐蔽求安全”(也就是说假设用户不会发现一些东西的存在,如果它们不被告知的话)。

上一篇 下一篇

猜你喜欢

热点阅读