《动手学深度学习》14天打卡
目光所及
千帆驶尽回眸望,仍是初少年!
展开
-
《动手学深度学习》Task10打卡
针对GAN的认识由判别模型和生成模型两部分组成。生成模型负责生成假样本,欺骗判别器。判别模型来分辨真样本和假样本。两个模型交替训练,类似对抗博弈的过程。训练判别器,固定生成器,使用反向传播。固定判别器,训练生成器,使用反向传播。针对DCGAN的认识GAN存在训练不稳定,生成过程不可控的缺点而对GAN进行了改进,从而有了DCGAN(Deep Convolutional GA...原创 2020-02-24 23:01:25 · 224 阅读 · 0 评论 -
《动手学深度学习》Task09打卡
目标检测基础图像风格迁移图像分类案例1原创 2020-02-23 16:32:32 · 99 阅读 · 0 评论 -
《动手学深度学习》Task06打卡
批量归一化和残差网络批量归一化(BatchNormalization)针对深度模型训练:以batch为单位,对每个batch计算均值和方差。预测:用移动平均估算整个训练数据集的样本均值和方差。残差网络(ResNet)针对深度CNN网络深度问题残差块(Residual Block)左边:f(x)=x右边:f(x)-x=0 (易于捕捉恒等映射的细微波动)在残差块中,输⼊可通...原创 2020-02-20 18:02:13 · 148 阅读 · 0 评论 -
《动手学深度学习》Task05打卡
卷积神经网络基础卷积层中填充+步幅卷积层后池化层leNet卷积神经网络进阶AlexNetVGGGoogLeNet原创 2020-02-18 23:37:07 · 128 阅读 · 0 评论 -
《动手学深度学习》Task04打卡
机器翻译及相关技术注意力机制与Seq2seq模型Transformer原创 2020-02-18 14:56:10 · 117 阅读 · 0 评论 -
《动手学深度学习》Task03打卡
针对过拟合、欠拟合及其解决方案的认识欠拟合(underfitting):模型无法得到较低的训练误差;过拟合(overfitting):模型的训练误差远小于它在测试数据集上的误差。给定训练数据集,模型复杂度和误差之间的关系:当对该隐藏层使用丢弃法时,该层的隐藏单元将有一定概率被丢弃掉。设丢弃概率为ppp,那么有ppp的概率hih_ihi会被清零,有1−p1-p1−p的概率hi...原创 2020-02-16 22:52:47 · 245 阅读 · 0 评论 -
《动手学深度学习》Task02打卡
针对文本预处理的认识文本是一类序列数据,一篇文章可以看作是字符或单词的序列,本节将介绍文本数据的常见预处理步骤,预处理通常包括四个步骤:读入文本分词建立字典,将每个词映射到一个唯一的索引(index)将文本从词的序列转换为索引的序列,方便输入模型用现有工具进行分词我们前面介绍的分词方式非常简单,它至少有以下几个缺点:标点符号通常可以提供语义信息,但是我们的方法直接将其丢弃了...原创 2020-02-14 21:52:16 · 129 阅读 · 0 评论 -
《动手学深度学习》Task01打卡
针对线性回归的认识和大多数深度学习一样,对于线性回归这样的一种单层神经网路,它的基本要素包括模型、训练数据、损失函数和优化算法。既可以用神经网络图表示线性回归,又可以用矢量计算表示该模型。应该尽可能采用矢量计算,以提升计算效率。使用线性模型来生成数据集,生成一个1000个样本的数据集。为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望...原创 2020-02-14 21:15:49 · 198 阅读 · 0 评论