调参指导
lambda正则化参数的大小影响
当lambda的值很小时,其惩罚项值不大,还是会出现过拟合现象,当时lambda的值逐渐调大的时候,过拟合现象的程度越来越低,但是当labmda的值超过一个阈值时,就会出现欠拟合现象,因为其惩罚项太大,导致丢失太多的特征,甚至一些比较重要的特征。
参数初始化(weights initializer)策略大全
二分类,多分类,多标签
precision,recall
keras中的实现
注意,这是在训练好之后,预测测试集,然后求类平均。
from sklearn.metrics import classification_report
import numpy as np
Y_test = np.argmax(y_test, axis=1) # Convert one-hot to index这里把onehot转成了整数[1,2,10,1,2,1]
y_pred = model.predict_classes(x_test)#这里假设你的GT标注也是整数 [1,2,10,1,2,1]
print(classification_report(Y_test, y_pred))
结果为:
precision recall f1-score support
0 0.99 1.00 1.00 980
1 0.99 0.99 0.99 1135
2 1.00 0.99 0.99 1032
3 0.99 0.99 0.99 1010
4 0.98 1.00 0.99 982
5 0.99 0.99 0.99 892
6 1.00 0.99 0.99 958
7 0.97 1.00 0.99 1028
8 0.99 0.99 0.99 974
9 0.99 0.98 0.99 1009
avg / total 0.99 0.99 0.99 10000
【评价指标】详解F1-score与多分类F1
一文弄懂什么是Precision,Recall,F1score,以及accuracy