答:不全对。不要忽略了“Deep”——层数。
如果真的仅仅是暴力的话,那就不需要很深的层,就一层,但是这一层很长,很多单元。但这个performance实际上是没有相同参数下的多层更短的网络好。
Deep→Modularization→Less training data.
并不是训练数据越多就越好,就是因为现在data不多,所以需要deep leaning。
类似的道理,不要把所有的代码都写在main函数中,应该拆成不同的子函数,子函数之间进行一个相互调用,还可能会存在公用的函数,这样代码量降低,但效率更高。
End to End Learning:只关心输入和输出,中间的function怎么工作的都不管。