学习内容:
Pytorch、tensorflow的环境配置、深度学习的理论基础、损失函数的来源、模型的评价指标(precision、accuracy、recall、confusion_matrix、f1_score)、梯度下降、了解卷积神经网络中各层的作用、跟着用LeNet搭建了pytorch官网的cifar-10例子、tensorflow官网的手写数字集的识别、以及用AlexNet搭建了鲜花的识别分类模型。
损失函数基于极大似然估计的思想推导得出。如MSE、BCE……
梯度下降是参数更新的一种常用方法,因为训练的过程中样本的数量庞大,使用最小二乘法会导致时间非常的缓慢,其时间复杂度为O(n³),当n大于10000时计算非常繁多复杂。
梯度下降的由来是根据泰勒展开式推导得出,再加上控制对参数的更新,防止梯度爆炸,进而加上一个学习率。
在查阅资料,个人对卷积神经网络各层作用的理解有:卷积层(convolution layer)主要是为了提取上一层输入的特征,在这个过程中使用了卷积核(kernel),可以通过对卷积核的指定来对图像进行处理,对应于Photoshop上的滤镜,可以实现不同的处理结果,如:模糊、锐化等等。池化层主要分为两类操作,一个是最大池化采样(即取一个最大值),另外一个是平均池化采样(取平均值)。全连接层就是在池化层后对多维的图像进行相应的展平操作。