OpenCV+Python车牌字符分割和识别入门


最近做一个车牌识别项目,入门级别的,十分简单。

车牌识别总体分成两个大的步骤:

一、车牌定位:从照片中圈出车牌

二、车牌字符识别

这里只说第二个步骤,字符识别包括两个步骤:

1、图像处理:原本的图像每个像素点都是RGB定义的,或者称为有R/G/B三个通道。在这种情况下,很难区分谁是背景,谁是字符,所以需要对图像进行一些处理,把每个RGB定义的像素点都转化成一个bit位(即0-1代码),具体方法如下:

①将图片灰度化

名字拗口,但是意思很好理解,就是把每个像素的RGB都变成灰色的RGB值,而灰色的RGB值是R=G=B的。具体怎么改变暂且忽略,因为OpenCV有封装好的函数。

②将灰度图片二值化

我们做第一步的目的就是为了让每个像素都可以转变成0或1。再解释一下,既然每个像素的RGB值都相等了,那么将这个值称为灰度值,假设一张灰度车牌图片中,背景的灰度值集中在180(十进制)左右,而字符的灰度值集中在20左右,那么我们规定一个中间值100,小于100的像素点就可以全部变成0,大于100的像素点可以全部变成1,这样就实现了二值化。

③旋转调平

这个就不说了。

④去燥

这个涉及另外一些方法,以后有时间再补充,入门项目不作要求。


2、图像切割和识别

①图像切割

切割可以很简单,也可以很难,关键是方法的选择。

在这就用最弱智的方法进行切割吧。

图片现在已经成为一个0-1矩阵了,其中要么0是背景而1是字符,或者1是背景而0是字符,那就简单粗暴地用每一列的0-1数来切割。

我先在这里假设图片几乎水平,而且几乎没有噪点,具体方法如下:

a.将每一列的1值和0值分别统计起来。

b.根据每一列的0-1总和变换来切割字符

②图像识别

将每一个字符的图片分割出来后,就可以根据模板来判断是哪个字符了。

简单的方法有两种:

a.逐个像素比对,如果一致则count加一,最后根据count值确定匹配结果。

b.投影匹配:将每行、每列的像素位统计起来,根据差值大小来确定匹配结果。

两种方法结合效果很好。

具体的识别之后再补充。


下面是字符分割的代码。

import cv2

# 1、读取图像,并把图像转换为灰度图像并显示
img = cv2.imread("chepai/6.png")  # 读取图片
img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)   # 转换了灰度化
cv2.imshow('gray', img_gray)  # 显示图片
cv2.waitKey(0)

# 2、将灰度图像二值化,设定阈值是100
img_thre = img_gray
cv2.threshold(img_gray, 100, 255, cv2.THRESH_BINARY_INV, img_thre)
cv2.imshow('threshold', img_thre)
cv2.waitKey(0)

# 3、保存黑白图片
cv2.imwrite('thre_res.png', img_thre)

# 4、分割字符
white = []  # 记录每一列的白色像素总和
black = []  # ..........黑色.......
height = img_thre.shape[0]
width = img_thre.shape[1]
white_max = 0
black_max = 0
# 计算每一列的黑白色像素总和
for i in range(width):
    s = 0  # 这一列白色总数
    t = 0  # 这一列黑色总数
    for j in range(height):
        if img_thre[j][i] == 255:
            s += 1
        if img_thre[j][i] == 0:
            t += 1
    white_max = max(white_max, s)
    black_max = max(black_max, t)
    white.append(s)
    black.append(t)
    print(s)
    print(t)

arg = False  # False表示白底黑字;True表示黑底白字
if black_max > white_max:
    arg = True

# 分割图像
def find_end(start_):
    end_ = start_+1
    for m in range(start_+1, width-1):
        if (black[m] if arg else white[m]) > (0.95 * black_max if arg else 0.95 * white_max):  # 0.95这个参数请多调整,对应下面的0.05
            end_ = m
            break
    return end_

n = 1
start = 1
end = 2
while n < width-2:
    n += 1
    if (white[n] if arg else black[n]) > (0.05 * white_max if arg else 0.05 * black_max):
        # 上面这些判断用来辨别是白底黑字还是黑底白字
        # 0.05这个参数请多调整,对应上面的0.95
        start = n
        end = find_end(start)
        n = end
        if end-start > 5:
            cj = img_thre[1:height, start:end]
            cv2.imshow('caijian', cj)
            cv2.waitKey(0)




源程序中没有将图片输出,而只是显示出来,下面是执行结果

原图片:


灰度图片:



二值图片:(白底黑字)


分割后:

总体分割效果还是补充。但是遇到干扰较多的图片,比如左右边框太大、噪点太多,这样就不能分割出来,各位可以试一下不同的照片。


  • 43
    点赞
  • 358
    收藏
    觉得还不错? 一键收藏
  • 54
    评论
好的,我了解你的问题。下面是我对你的问题的回答: 车牌字符分割是指将整个车牌图像中的字符分割出来,以便后续进行字符识别PythonOpenCV可以很好地实现车牌字符分割识别。 下面是实现车牌字符分割的基本步骤: 1. 读取车牌图像,并将其转换为灰度图像。 2. 对灰度图像进行二值化处理,以便更好地提取字符。 3. 对二值化图像进行形态学操作,如腐蚀和膨胀,以去除噪声和连接字符。 4. 对处理后的图像进行轮廓检测,并将检测到的轮廓按照面积从大到小排序,以便更好地分割字符。 5. 根据轮廓的位置,将字符分割出来。 下面是一些参考代码: ```python import cv2 # 读取车牌图像 img = cv2.imread('car_plate.jpg') # 转换为灰度图像 gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 二值化处理 _, thresh = cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU) # 形态学操作 kernel = cv2.getStructuringElement(cv2.MORPH_RECT, (3, 3)) thresh = cv2.erode(thresh, kernel, iterations=1) thresh = cv2.dilate(thresh, kernel, iterations=1) # 轮廓检测 contours, hierarchy = cv2.findContours(thresh, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) # 将轮廓按面积从大到小排序 contours = sorted(contours, key=cv2.contourArea, reverse=True) # 分割字符 for contour in contours: x, y, w, h = cv2.boundingRect(contour) if w > 10 and h > 10: char_img = img[y:y+h, x:x+w] cv2.imshow('char', char_img) cv2.waitKey(0) ``` 以上代码仅供参考,实际应用中还需要根据具体情况进行调整和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 54
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值