分类模型中 label值相关的文章:
Logistic regression:
https://www.jianshu.com/p/08f78d09024a
CNN cafe: 从0开始,连续整数
https://blog.csdn.net/m0_37192554/article/details/84852421
https://blog.csdn.net/u014381600/article/details/54319030
CNN tesorflow:
将索引one-hot: https://blog.csdn.net/qq_35203425/article/details/79997271
数字标签转化成onehot标签 https://blog.csdn.net/a_yangfh/article/details/77911126
在MNIST手写字数据集中,我们导入的数据和标签都是预先处理好的,但是在实际的训练中,数据和标签往往需要自己进行处理。
以手写数字识别为例,我们需要将0-9共十个数字标签转化成onehot标签。
https://blog.csdn.net/u014381600/article/details/54319030
最近在看tensorflow的用法,发现和caffe里面其实是类似的,但是如果是label全都obehot了的话,其实从几开始标注label并不重要,因为后面算loss的时候都一样,
x = tf.placeholder(tf.float32, [None, n_input])
y = tf.placeholder(tf.float32, [None, n_classes])
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=pred, labels=y))
optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost)
# Evaluate model
correct_pred = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))
注意这里的correct_pred = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1))
y是你自己的label标注onehot之后的,假设三个类,标注为0,1,2,或者是2,3,4都没关系,因为第一个类onehot之后都是100,在tf.argmax的时候得到的类别标号也是从index0开始的。
但是如果你的label没有经过onehot,而网络的输出是 [None, n_classes],这时候
correct_pred = tf.equal(tf.argmax(pred, 1),y)
1
这里的tf.argmax的时候得到的类别标号也是从index0开始的,因此你的label这时候没有onehot,是整形数,因此也必须从0开始,不然的话会出错。
**
结论:
无论是caffe还是tensorflow,做分类时自己的label都确保从0开始标号 ,这样后面你自己扩展的时候也不用考虑这种问题,另外tensorflow的话,只要label是onehot之后的,虽然可以不从0开始标注,或者说可以任意标注label,但是从0开始标记label依然是最安全的办法!