1、什么是归一化,它与标准化的区别是什么? 2、如何确定CNN的卷积核通道数和卷积输出层的通道数? 3、你有哪些深度学习(rnn、cnn)调参的经验? 4、为什么相比于RNN,LSTM在梯度消失上表现更好? 5、激活函数总结 6、请问人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function? 7、为什么ReLU比Sigmoid在很多场合都要结果好? 8、如何解决RNN梯度爆炸和弥散的问题? 9、通俗理解word2vec 10、理解GloVe模型(+总结) 11、难以置信!LSTM和GRU的解析从未如此清晰(动图+视频) 12、一幅图真正理解LSTM、BiLSTM 13、bert的三个embedding向量为什么不concat? 14、BN(Batch Normalization)详解,包含pytorch实现、numpy实现 15、权重衰减(weight decay)与学习率衰减(learning rate decay) 16、机器学习之分类器性能指标之ROC曲线、AUC值