扫描网站敏感文件为我们接下来的渗透提供方向
大致思路:先读取一个字典内容,通过拼接url,并发起get请求,通过http响应码来判断页面是否存在
基本源码如下:
import requests
url = input("请输入要扫描的网址:")
f = open(web.txt,"r").read().split("\n")
print("正在扫描中......")
for i in f:
web = url + i
webcode = requests.get(web,allow_redirects=False)
if webcode.status_code == 200:
a = a + 1
print(web)
优化:
import requests
a = 0
path = ""
url = input("请输入要扫描的网址:")
path = input("请输入字典文件路径(如果为空则使用当前目录下的web.txt):")
if path == "" :
path = "web.txt"
f = open(path,"r").read().split("\n")
print("正在扫描中......")
for i in f:
web = url + i
webcode = requests.get(web,allow_redirects=False)
if webcode.status_code == 200:
a = a + 1
print(web)
if a == 0:
print("一个也没有扫描到")
else:
print("扫描完成")
print("一共扫描到了" + str(a) + "个敏感文件")
762

被折叠的 条评论
为什么被折叠?



