深度学习的自学笔记-1


学习内容:

Pytorch、tensorflow的环境配置、深度学习的理论基础、损失函数的来源、模型的评价指标(precision、accuracy、recall、confusion_matrix、f1_score)、梯度下降、了解卷积神经网络中各层的作用、跟着用LeNet搭建了pytorch官网的cifar-10例子、tensorflow官网的手写数字集的识别、以及用AlexNet搭建了鲜花的识别分类模型。

损失函数基于极大似然估计的思想推导得出。如MSE、BCE……

梯度下降是参数更新的一种常用方法,因为训练的过程中样本的数量庞大,使用最小二乘法会导致时间非常的缓慢,其时间复杂度为O(n³),当n大于10000时计算非常繁多复杂。

梯度下降的由来是根据泰勒展开式推导得出,再加上控制对参数的更新,防止梯度爆炸,进而加上一个学习率。

在查阅资料,个人对卷积神经网络各层作用的理解有:卷积层(convolution layer)主要是为了提取上一层输入的特征,在这个过程中使用了卷积核(kernel),可以通过对卷积核的指定来对图像进行处理,对应于Photoshop上的滤镜,可以实现不同的处理结果,如:模糊、锐化等等。池化层主要分为两类操作,一个是最大池化采样(即取一个最大值),另外一个是平均池化采样(取平均值)。全连接层就是在池化层后对多维的图像进行相应的展平操作。


评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值