1,昨天的实验总结。出一点,就是靠Github上开源程序给的loss函数并不可靠,最终还是要落脚在深度的平方根误差
2。早上开始的新的实验,有两个收获,第一个,之前的输出值之所以那么小,可能不是网络的原因,也不是有没有图像输入时标准化的原因,
很可能是由于定义的costvolume数量太少导致的。第二个收获是,有时候不能够光看loss下降没有来判断网络是否在学习,我们还可以直接看logits是否符合我们的预期来看是否学习了
可以看到,虽然loss没有规律,但是logits是在逐步变化的。
2,下一步进行测试实验,看看自己的猜测是不是对的。
[[[ 29.22729683 30.66580391 29.58477974]
[ 30.31576538 30.43939018 31.09558487]
[ 26.96797752 28.96059608 27.58357811]
...,
[ 29.50629616 29.50736046 30.33460999]
[ 25.6018734 28.09297943 26.72260857]
[ 29.97171402 30.31319618 30.52639198]]
[[ 29.91841316 30.51651001 30.4446125 ]
[ 31.31655502 31.66430664 31.79400444]
[ 28.86005211 29.23633385 29.81957436]
...,
[ 30.59753799 30.58752632 30.71619225]
[ 27.93183327 27.13090897 28.3105011 ]
[ 31.43568802 31.26835632 30.90818214]]
[[ 27.89051819 28.71739578 28.36855888]
[ 29.87748146 30.38660812 30.49242592]
[ 23.59258842 27.06507492 24.84761238]
...,
[ 27.80221939 27.57508278 28.00679016]
[ 20.80804825 23.22537613 21.58174324]
[ 28.49844933 29.23706627 29.47852516]]
...,
果然结果和我想象的是一样的,之前之所以数值太小的原因只是因为costvolume的个数太少。太棒了,一个可喜的消息。
但是现在还有个问题,就是这个图片上为什么有那么多格子?
3,接下来把通道数换成1,然后把costvolum改为128,希望能够训练出好结果。
4,发现经过上述设计以后,我只想说,算的真的非常非常慢。所以以后实验还是需要将标签图片的范围缩小到1-16,这样才能减少计算量。
5,到下午了,首先将深度调整回原来的大小。然后再将label图片的取值范围调整为0-16,如果能够训练的好的话,输出的
logits应该能够达到7-8左右
6,发现标准化以后还是不行,随着损失的下降,logits反而是下降而不是上升。这样的现象不正常。