上一篇太长了,分开写
【第13次训练】
增加拉伸压缩的多样性:
scale_list1 = [0.7,0.75,0.8,0.85,0.9,0.95]
scale_list2 = [1/x for x in scale_list1 ]
结束标志:平均acc达到0.999
在真实数据上测试结果:
字符准确率:95%
word 准确率:75%
真实样本总数:124
全部正确数:93
错1-2个数:30
其他:1
【第13.1次训练】
结束标志:平均acc达到0.9995
在真实数据上测试结果:
字符准确率:95%
word 准确率:75%
真实样本总数:124
全部正确数:93
错1-2个数:30
其他:1
没啥变化。
【第13.2次训练】
结束标志:训练完成,迭代51200次
在真实数据上测试结果:
字符准确率:94.8%
word 准确率:71.7%
真实样本总数:124
全部正确数:89
错1-2个数:32
其他:3
【第14次训练】
结束标志:平均acc达到0.999
在真实数据上测试结果:
字符准确率:94.0%
word 准确率:69%
真实样本总数:124
全部正确数:86
错1-2个数:34
其他:4
下一步,看一下黑白图效果会不会有提升。
【第15次训练】
对syn图做了二值化处理,二值化后图片调整到(-1,1)之间,去训练。明天来了看结果。
后续可以加上 refine 图同样处理。
一共保存了5个模型,分别是0.9990,0.9995,0.9997,0.9999,end, 但是不知道为什么,运行了一夜,end还是没有执行完成,不知道咋回事,待查证。所以实际是4个模型。效果最好的是9999,所以其他就不记录了
结束标志:平均acc达到0.9999
在真实数据上测试结果:
字符准确率:90%
word 准确率:55%
真实样本总数:124
全部正确数:69
错1-2个数:43
其他:12
在这次测试中,acc2_list 中,仍然有17张图识别错误。可能需要再进一步分析这些识别错误的字符是不是总是同一个字符,另外是不是总被识别成同一个字符,这是两件事情。
【第16次训练】
加入refine,也黑白化后训练。
结束标志:平均acc达到0.995
在真实数据上测试结果:
字符准确率:95.7%
word 准确率:74.1%
真实样本总数:124
全部正确数:92
错1-2个数:30
其他:2
因为截止准确率只有0.995,基本可以达到目前最好识别效果(仅次于13),所以可以看看最后训练完成是什么样。