HyperLPR 高性能中文车牌识别系统分析(十一)

2021SC@SDUSC

概述

上篇已对SimpleRecognizePlateByE2E()函数的内部调用的函数delectPlateRough()、finemappingVertical()、recognizeOne()进行分析总结

接下来是对SimpleRecognizePlateByE2E()函数的结构与功能的最终分析与总结

SimpleRecognizePlateByE2E()函数

该函数接收的输入就是待识别车牌所在的图片第一步就是使用detectPlateRough函数进行图像分割,经历过这一步之后,images舍弃掉不需要的背景,只保留裁剪出车牌的轮廓

运用finemappingVertical,进一步裁剪出车牌区域有文字的部分,舍弃掉没有文字的背景,裁剪下来的部分命名为送入recognizeOne函数中识别出文字,不仅识别出文字,还会给出结果的置信度,识别结果及其置信度一并存入res_set数组,作为结果返回

slidingWindowsEval函数

使用了模板匹配法进行分析。

模板匹配法根据车牌的标准样式,结合字符的结构、尺寸和间距特征,设计出一个固定的模板和一个用来度量模板匹配程度的评价函数,然后将该模板在归一化后的图像中从左至右滑动,每滑动一次计算对应的评价值,最终选出匹配程度最高的模板滑动位置作为字符分割的位置。

第一步是获取图像并进行预处理

 windows_size = 16;

    stride = 1

    height= image.shape[0]

    t0 = time.time()

    data_sets = []


    for i in range(0,image.shape[1]-windows_size+1,stride):

        data = image[0:height,i:i+windows_size]

        data = cv2.resize(data,(23,23))

        # cv2.imshow("image",data)

        data = cv2.equalizeHist(data)

        data = data.astype(np.float)/255

        data=  np.expand_dims(data,3)

        data_sets.append(data)


    res = model2.predict(np.array(data_sets))

    print("分割",time.time() - t0)


    pin = res

    p = 1 -  (res.T)[1]

    p = f.gaussian_filter1d(np.array(p,dtype=np.float),3)

    lmin = l.argrelmax(np.array(p),order = 3)[0]

获取包含车牌的图像后,首先要把图像转化成灰度图,并且进行直方图均衡化、裁剪缩放等图形学处理,使之更易识别。不过这个函数的输入图片,早在主函数中就已经完成了灰度图转化等预先处理,并且输入函数的图片,早就在主函数中粗裁剪出车牌的大体位置,所以预处理的步骤主要不是在这个函数之中完成的

第二步图像分割

pin = np.array(pin)

    res =  searchOptimalCuttingPoint(image,pin,0,mid,3)


    cutting_pts = res[1]

    last =  cutting_pts[-1] + mid

    if last < image.shape[1]:

        cutting_pts.append(last)

    else:

        cutting_pts.append(image.shape[1]-1)

    name = ""

    confidence =0.00

    seg_block = []

    for x in range(1,len(cutting_pts)):

        if x != len(cutting_pts)-1 and x!=1:

            section = image[0:36,cutting_pts[x-1]-2:cutting_pts[x]+2]

        elif  x==1:

            c_head = cutting_pts[x - 1]- 2

            if c_head<0:

                c_head=0

            c_tail = cutting_pts[x] + 2

            section = image[0:36, c_head:c_tail]

        elif x==len(cutting_pts)-1:

            end = cutting_pts[x]

            diff = image.shape[1]-end

            c_head = cutting_pts[x - 1]

            c_tail = cutting_pts[x]

            if diff<7 :

                section = image[0:36, c_head-5:c_tail+5]

            else:

                diff-=1

                section = image[0:36, c_head - diff:c_tail + diff]

        elif  x==2:

            section = image[0:36, cutting_pts[x - 1] - 3:cutting_pts[x-1]+ mid]

        else:

            section = image[0:36,cutting_pts[x-1]:cutting_pts[x]]

        seg_block.append(section)
   refined = refineCrop(seg_block,mid-1)

上述代码就是图像分割的代码。图像分割的目的把车牌上的多个文字分离开来,因为对比的时候是要把每个文字(字母、数字、汉字),与我们预先准备的所有字母、数字、汉字的标准模板进行比对,比对的时候必须是每个字与每个字比对,

这里进行了两轮分割,第一轮就是使用了searchOptimalCuttingPoint函数,根据车牌上文字分布的几何规律——每个字宽度近似相同,进行分割,把每个文字最可能位于的几何区域先划分出来。第二轮每个区域内已经只有一个文字了,对每个区域使用refineCrop函数,运用边缘检测的原理,找到那个文字的边缘并且把那个文字所在的最小矩形找出来

第三步是文字识别

   t0 = time.time()

    for i,one in enumerate(refined):

        res_pre = cRP.SimplePredict(one, i )

        # cv2.imshow(str(i),one)

        # cv2.waitKey(0)

        confidence+=res_pre[0]

        name+= res_pre[1]

    print("字符识别",time.time() - t0)


    return refined,name,confidence

它主要是调用了已经训练好的模型。事先已经找好了26个字母+34个省份简称+10个数字的标准模板,并且根据这些模板输入给模型让他学习,只要模型训练好了,接下来给它分割好的单个文字,它就可以完成分类,给出最可能的结果,并且给出置信度。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值