tensorflow:归一化和批归一化,激活函数,及dropout
在深度学习中,optimizer就是优化函数,这部分相当于机器学习中,自己写的优化函数部分,直接利用SGD:随机梯度下降算法激活函数的作用引入非线性因素,使得升级网络更为复杂。归一化:训练模型不会因为部分畸形数据而导致训练模型出现差错批归一化:每一层的激活值都进行归一化的过程过拟合解释:(在train的表现很好,在valid的表现不是很好)。原因:参数过多,记住样本,不能泛化。...
原创
2020-02-25 22:30:57 ·
2513 阅读 ·
2 评论