OTSU算法实现二值化

OTSU算法做二值化处理

查阅很多博客与资料,自己消化理解后,整理汇总而来,也算脑力劳动成果吧
查阅的文章链接文中基本都提及了

1.二值化处理

二值化,就是让图像的像素点矩阵中的每个像素点的灰度值为0(黑色)或者255(白色),也就是让整个图像呈现只有黑和白的效果。在灰度化的图像中灰度值的范围为0~255,在二值化后的图像中的灰度值范围是0或者255

  黑色
           二值化后的R =  0
           二值化后的G =  0
           二值化后的B =  0
  白色
           二值化后的R =  255
           二值化后的G =  255
           二值化后的B =  255

那么一个像素点在灰度化之后的灰度值怎么转化为0或者255呢?比如灰度值为100,那么在二值化后到底是0还是255?这就涉及到取一个阀值的问题。
假如取阀值为127(相当于0~255的中数,(0+255)/2=127),让灰度值小于等于127的变为0(黑色),灰度值大于127的变为255(白色),这样做的好处是计算量小速度快,但是缺点也是很明显的,因为这个阀值在不同的图片中均为127,但是不同的图片,他们的颜色分布差别很大,所以用127做阀值,白菜萝卜一刀切,效果肯定是不好的。
总之,二值化的关键就是阈值怎么选取更合理的问题。

2. 具体思路

要实现一幅图像的字符分割

  1. 首先我们要将图像转换成灰度图像;
  2. 然后采用大津法(OTSU,自适应阈值分割)找出最佳的阈值分割点,将灰度图像转化为二值图像;
  3. 最后利用水平垂直投影法找出字符与字符之间的边界点。

最大类间方差法(大津法OTSU)

3.一维OTSU算法介绍

最大类间方差法是1979年由日本学者大津提出的,是一种自适应阈值确定的方法,又叫大津法,简称OTSU,是一种基于全局的二值化算法,它是根据图像的灰度特性,将图像分为前景和背景两个部分。当取最佳阈值时,两部分之间的差别应该是最大的,在OTSU算法中所采用的衡量差别的标准就是较为常见的最大类间方差。前景和背景之间的类间方差如果越大,就说明构成图像的两个部分之间的差别越大,当部分目标被错分为背景或部分背景被错分为目标,都会导致两部分差别变小,当所取阈值的分割使类间方差最大时就意味着错分概率最小[1]。

记T为前景与背景的分割阈值,前景点数占图像比例为w0,平均灰度为u0;背景点数占图像比例为w1,平均灰度为u1,图像的总平均灰度为u,前景和背景图象的方差g,则有:

下面方差g的计算可以参考最原始的方差公式

img

不难发现是Xi减去平均数,所有的概率值都是1/n,而下面的g的计算其实就是对应的概率值发生了变化,从1/n变为了对应的w0和w1。

还有一个条件那就是w0+w1=1

img

OTSU算法学习 OTSU公式证明

4. C代码实现一维OTSU算法

这里暂无verilog代码,拿C的先理解一下

public int GetThreshValue(Bitmap image)
{
    BitmapData bd = image.LockBits(new Rectangle(0,0, image.Width, image.Height), ImageLockMode.WriteOnly, image.PixelFormat);
    byte* pt =(byte*)bd.Scan0;
    int[] pixelNum = new int[256];//图象直方图,共256个点
    byte color;
    byte* pline;
    int n, n1, n2;
    int total;//total为总和,累计值
    double m1, m2, sum, csum, fmax, sb;//sb为类间方差,fmax存储最大方差值
    int k, t, q;
    int threshValue =1;// 阈值
    int step =1;
    switch(image.PixelFormat)
    {
    case PixelFormat.Format24bppRgb:
        step =3;
        break;
    case PixelFormat.Format32bppArgb:
        step =4;
        break;
    case PixelFormat.Format8bppIndexed:
        step =1;
        break;
    }
    //生成直方图
    for(int i =0; i < image.Height; i++)
    {
        pline = pt + i * bd.Stride;
        for(int j =0; j < image.Width; j++)
        {
            color =*(pline + j * step);//返回各个点的颜色,以RGB表示
            pixelNum[color]++;//相应的直方图加1
        }
    }
    //直方图平滑化
    for(k =0; k <=255; k++)
    {
        total =0;
        for(t =-2; t <=2; t++)//与附近2个灰度做平滑化,t值应取较小的值
        {
            q = k + t;
            if(q <0)//越界处理
                q =0;
            if(q >255)
                q =255;
            total = total + pixelNum[q];//total为总和,累计值
        }
        //平滑化,左边2个+中间1个+右边2个灰度,共5个,所以总和除以5,后面加0.5是用修正值
        pixelNum[k]=(int)((float)total /5.0+0.5);
    }
    //求阈值
    sum = csum =0.0;
    n =0;
    //计算总的图象的点数和质量矩,为后面的计算做准备
    for(k =0; k <=255; k++)
    {
        //x*f(x)质量矩,也就是每个灰度的值乘以其点数(归一化后为概率),sum为其总和
        sum +=(double)k *(double)pixelNum[k];
        n += pixelNum[k];//n为图象总的点数,归一化后就是累积概率
    }
    fmax =-1.0;//类间方差sb不可能为负,所以fmax初始值为-1不影响计算的进行
    n1 =0;
    for(k =0; k <255; k++)//对每个灰度(从0到255)计算一次分割后的类间方差sb
    {
        n1 += pixelNum[k];//n1为在当前阈值遍前景图象的点数
        if(n1 ==0){continue;}//没有分出前景后景
        n2 = n - n1;//n2为背景图象的点数
        //n2为0表示全部都是后景图象,与n1=0情况类似,之后的遍历不可能使前景点数增加,所以此时可以退出循环
        if(n2 ==0){break;}
        csum +=(double)k * pixelNum[k];//前景的“灰度的值*其点数”的总和
        m1 = csum / n1;//m1为前景的平均灰度
        m2 =(sum - csum)/ n2;//m2为背景的平均灰度
        sb =(double)n1 *(double)n2 *(m1 - m2)*(m1 - m2);//sb为类间方差
        if(sb > fmax)//如果算出的类间方差大于前一次算出的类间方差
        {
            fmax = sb;//fmax始终为最大类间方差(otsu)
            threshValue = k;//取最大类间方差时对应的灰度的k就是最佳阈值
        }
    }
    image.UnlockBits(bd);
    image.Dispose();
    return threshValue;
}

img
5. 二维OTSU算法

二维Otsu算法的原理与实现

1.简介:

​ 一维Otsu算法有计算简洁、稳定、自适应强等优点,被广泛用于图像分割中。但一维Otsu算法没有考虑图像像素点之间的关系,当图像中有噪声时,会导致分割的效果不理想。因此,刘健庄等人在1993年提出了二维的Otsu算法,提升了算法的抗噪声能力。

2.算法思想:

​ 同时考虑像素的灰度值分布和它们邻域像素的平均灰度值分布,因此形成的阈值是一个二维矢量,最佳的阈值在一个二维的测度准则下确定最大值时得到。

3.算法过程:

(1)设图像I(x,y),的灰度级为L级,那么图像的邻域平均灰度也分为L级。
(2)设f(x,y)为像素点(x,y)的灰度值,g(x,y)为像素点(x,y)为中心的K*K的像
素点集合的灰度平均值。令f(x,y)=i,g(x,y)=j,然后就形成了一个二元组(i,j)。
(3)设二元组(i,j)出现的次数为fij,然后求出二元组对应的概率密度Pij,
Pij=fij/N, i,j=1,2,…,L,其中N为图像像素点总数。
(4)任意选取一个阈值向量(s,t)选取的阈值向量将图像的二维直方图划分成4个
区域,B、C区域代表图像的前景和背景,A、D区域代表噪声点。

(5)设C、B两个区域对应的概率分别为w1,w2,对应的均值矢量为u1,u2。整个图
片所对应的均值矢量为uT。

imgimg

6. C代码实现二维OTSU算法

下面用数学语言表达一下
i :表示亮度的维度
j : 表示点区域均值的维度
w0: 表示在阈值(s,t)时 所占的比例
w1: 表示在阈值(s,t)时, 所占的比例
u0(u0i, u0j): 表示在阈值(s,t)时时 的均值.u0时2维的
u1(u1i, u1j): 表示在阈值(s,t)时的均值.u1时2维的
uT: 全局均值
和一维otsut函数类似的目标函数
sb = w0(u0-uT)(u0-uT)’ + w1(u1-uT)(u1-uT)’
= w0[(u0i-uTi)
(u0i-uTi) + (u0j-uTj)
(u0j-uTj)] + w1[(u1i-uTi)* (u1i-uTi) + (u1j-uTj)* (u1j-uTj)]

int histogram[256][256];
double p_histogram[256][256];
double Pst_0[256][256];//Pst_0用来存储概率分布情况
double Xst_0[256][256];//存储x方向上的均值矢量
int OTSU2d(IplImage * src)
{
    int height = src->height;
    int width = src->width;
    long pixel = height * width;
   
    int i,j;
 
    for(i =0;i <256;i++)//初始化直方图
    {
        for(j =0; j <256;j++)
            histogram[i][j]=0;
    }
 
    IplImage * temp = cvCreateImage(cvGetSize(src),8,1);
    cvSmooth(src,temp,CV_BLUR,3,0);
   
    for(i =0;i < height;i++)//计算直方图
    {
        for(j =0; j < width;j++)
        {
            int data1 = cvGetReal2D(src,i,j);
            int data2 = cvGetReal2D(temp,i,j);
            histogram[data1][data2]++;
        }
    }
 
    for(i =0; i <256;i++)//直方图归一化
        for(j =0; j <256;j++)
            p_histogram[i][j]=(histogram[i][j]*1.0)/(pixel*1.0);
 
    Pst_0[0][0]= p_histogram[0][0];
    for(i =0;i <256;i++)//计算概率分布情况
        for(j =0;j <256;j++)
        {
           double temp =0.0;
           if(i-1>=0)
               temp = temp + Pst_0[i-1][j];
           if(j-1>=0)
               temp = temp + Pst_0[i][j-1];
           if(i-1>=0&& j-1>=0)
               temp = temp - Pst_0[i-1][j-1];
           temp = temp + p_histogram[i][j];
           Pst_0[i][j]= temp;
        }
       
   
    Xst_0[0][0]=0* Pst_0[0][0];
    for(i =0; i <256;i++)//计算x方向上的均值矢量
        for(j =0; j <256;j++)
        {
           double temp =0.0;
           if(i-1>=0)
               temp = temp + Xst_0[i-1][j];
           if(j-1>=0)
               temp = temp + Xst_0[i][j-1];
           if(i-1>=0&& j-1>=0)
               temp = temp - Xst_0[i-1][j-1];
           temp = temp + i * p_histogram[i][j];
           Xst_0[i][j]= temp;
        }
 
    double Yst_0[256][256];//存储y方向上的均值矢量
    Yst_0[0][0]=0* Pst_0[0][0];
    for(i =0; i <256;i++)//计算y方向上的均值矢量
        for(j =0; j <256;j++)
        {
           double temp =0.0;
           if(i-1>=0)
               temp = temp + Yst_0[i-1][j];
           if(j-1>=0)
               temp = temp + Yst_0[i][j-1];
           if(i-1>=0&& j-1>=0)
               temp = temp - Yst_0[i-1][j-1];
           temp = temp + j * p_histogram[i][j];
           Yst_0[i][j]= temp;
        }
    
    int threshold1;
    int threshold2;
    double variance =0.0;
    double maxvariance =0.0;
    for(i =0;i <256;i++)//计算类间离散测度
        for(j =0;j <256;j++)
        {
             longdouble p0 = Pst_0[i][j];
             longdouble v0 = pow(((Xst_0[i][j]/p0)-Xst_0[255][255]),2)+ pow(((Yst_0[i][j]/p0)-Yst_0[255][255]),2);
             longdouble p1 = Pst_0[255][255]-Pst_0[255][j]-Pst_0[i][255]+Pst_0[i][j];
             longdouble vi = Xst_0[255][255]-Xst_0[255][j]-Xst_0[i][255]+Xst_0[i][j];
             longdouble vj = Yst_0[255][255]-Yst_0[255][j]-Yst_0[i][255]+Yst_0[i][j];
             longdouble v1 = pow(((vi/p1)-Xst_0[255][255]),2)+pow(((vj/p1)-Yst_0[255][255]),2);
           
             variance = p0*v0+p1*v1;
          
           if(variance > maxvariance)
           {
              maxvariance = variance;
              threshold1 = i;
              threshold2 = j;
           }
        }
 
    //printf("%d  %d",threshold1,threshold2);
 
    return(threshold1+threshold2)/2;
 
}
 

img
如图为(灰度化略)OTSU获得二维阈值,并二值化处理后的图片
7. 总结

二维otsu算法得到一个阈值,然后对图像做二值化.仍然不能解决光照不均匀二值化的问题.比一维otsu效果好一些,但不是很明显.这个算法的亮点在于考虑的点的附近区域的均值.

  • 1
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值