标准度量
训练和测试直接输入,当数据不够的时候
其实就是二分类
图片也是一种数据,CNN是一种特征的提取方式而已,训练数据有标签,测试数据无标签
相似的靠得近,不相似的靠的远
triplet loss
只有一张图片计算相似度后再做归一化
有多张,few shot那就去平均
用模型结构来学相似度
可以用gan生成图片
梯度下降
参数的更新,看成是喂入另外一个一个LSTM模型
RNN和LSTM对比,ct没有变化,所以能保留长时间的记忆
LSTM理解
很直观的解释而已
通过公式类比
LSTM就是更一般的结构,可以学出来,原来的梯度下降只是特使的情况而已,知识直接是有关联的,完全可以串起来。
做粗略的假设
所有的参数用一个LSTM架构来学
类别RNN‘
修改架构,不断的跟之前的状态做attention,好计算相似度的思想一致