损失函数计算的是网络预测值与真实值之间的差异,所以本文先从网络预测值的生成进行介绍,然后介绍CTC loss。
CRNN
该文章对CRNN进行了很好的解读,建议先进行阅读。
现今基于深度学习的端到端OCR技术有两大主流技术:CRNN OCR和attention OCR。其实这两大方法主要区别在于最后的输出层(翻译层),即怎么将网络学习到的序列特征信息转化为最终的识别结果。这两大主流技术在其特征学习阶段都采用了CNN+RNN的网络结构,CRNN OCR在对齐时采取的方式是CTC算法,而attention OCR采取的方式则是attention机制。CRNN的处理流程如下。
- 首先会将图像缩放到 32×W×1 大小
- 然后经过CNN后变为 1×(W/4)× 512
- 接着针对LSTM,设置 T=(W/4) , D=512 ,即可将特征输入LSTM。
- LSTM有256个隐藏节点,经过LSTM后变为长度为T × nclass的向量,再经过softmax处理,列向量每个元素代表对应的字符预测概率,最后再将这个T的预测结果去冗余合并成一个完整识别结果即可。
LSTM模型及参数
- lstm的初始化参数包括:input_size,hidden_size,num_layers,bidirectional,即输入特征维度、隐状态特征维度,隐层数量、是否双线性等。
- 输入参数为:input, (h0, c0)
input(seq_len, batch, input_size) #输入参数,字符数量(等于时间T的值), 批大小, 字符特征维度
h0(num_layers * num_directions, batch, hidden_size) #初始隐状态参数, 隐层数量,方向数,批大小, 隐状态特征维度
c0(num_layers * num_directions, batch, hidden_size) #初始记忆状态参数
- 输出参数为:output, (hn, cn)
output(seq_len, batch, hidden_size * num_directions) #含义同输入参数
hn(num_layers * num_directions, batch, hidden_size)
cn(num_layers * num_directions, batch, hidden_size)
- 总结:输入输出为三维矩阵,其中seq_len参数可变,是