论文解读:
global information 可以揭露 what , local information 揭露 where
deep 分类网络当做预训练,微调网络,whole image 当做输入,whole image ground truth 是标签
损失函数是在最后一层的 spatial map上的 pixel 的 loss 和,在每一个 pixel 使用 softmax loss
在全部图像上的基于l的随机梯度下降计算将和基于l’的梯度下降结果一样,将最后一层的所有接收域作为minibatch(分批处理)
当感受野重叠的很大的时候,前向和后向传播计算会很有效率???
使用 skip 结构融合多层输出,底层网络应该可以预测更多的位置信息,因为他的感受野小可以看到小的 pixels,结合 fine layers 和 corase layers 可以使模型 respect global structure 的情况下 make local predictions
上采样 lower-resolution layers 时,如果采样后的图因为 padding 等原因和前面的图大小不同,使用 crop ,当裁剪成大小相同的,spatially aligned ,使用 concat 操作融合两个层
softmax loss 会导致类间竞争,促使做最好的预测,但不知道是否有用,使用 sigmod cross-entropy loss 获得相同的结果
下载伯克利大学的fcn文件,基于论文Fully Convolutional Networks for Semantic Segmentation
尝试运行siftflow-fcn32s模型
首先下载数据