要点总结:
1、Dual Softmax loss
Dual Softmax loss是先对M1使用按列的softmax,得到M2(相当于考虑Video2text的相似度权重),M1再和M2按对应元素相乘得到M4,再对M4进行按行的softmax,得到M5,这样得到的相似矩阵M5和原始的相似矩阵M3相比,准确度会更高
要点总结:
1、Dual Softmax loss
Dual Softmax loss是先对M1使用按列的softmax,得到M2(相当于考虑Video2text的相似度权重),M1再和M2按对应元素相乘得到M4,再对M4进行按行的softmax,得到M5,这样得到的相似矩阵M5和原始的相似矩阵M3相比,准确度会更高