自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 资源 (1)
  • 收藏
  • 关注

原创 卷积神经网络基础与经典模型-Task4

1. 卷积神经网络基础 从本节讲解才知道,卷积神经网络中的Conv2d函数中,实现的滤波器与图像element-wise相乘并累加其实是互相关运算,二维互相关的解释如下: 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数...

2020-02-19 21:42:54 297

原创 过拟合、欠拟合、梯度消失与梯度爆炸-Task3

1. 过拟合、欠拟合及其解决方案 本节主要讲了3个点,1. 过拟合、欠拟合的概念 2. 权重衰减 3. 丢弃法 其中权重衰减只讲了L2正则化,其实还有L1正则化、L12正则化等。 丢弃法其实就是Dropout,只是翻译成了中文。 Inverted-Dropout Inverted-Dropout是实现 dropout 的方法。假设对第i层进i行 dropout: p = 0.8 di = np.r...

2020-02-19 21:39:41 170

原创 文本预处理、语言模型与RNN基础-task2

这里对《ElitesAI·动手学深度学习PyTorch版》Task2的学习做个简短的总结。 Task2中总共分为3个部分:文本预处理、语言模型、RNN基础。 主要学习了分词,n-gram,随机采样与相邻采样还有基础的RNN知识。 文本预处理 1. 关于re正则 推荐学习链接:https://blog.csdn.net/qq_41185868/article/details/96422320#3%E...

2020-02-14 19:31:13 188

原创 从线性回归到多层感知机-task1

这里对《ElitesAI·动手学深度学习PyTorch版》Task1的学习做个简短的总结。 Task1中总共分为3个部分:线性回归、softmax、多层感知机。 因为之前有些基础,所以3个部分原理部分都大致比较清楚,由于对pytorch不是那么熟悉,所以下面主要对之前不熟悉的一些函数方法进行总结,并对部分算法细节进行补充。 1. 线性回归 线性回归相当于一个两层的神经网络,只有输入层与输出层,且输...

2020-02-14 19:25:32 220

反向传播算法讨论

Coursera吴恩达机器学习课程,第5周介绍了神经网络的反向传播算法。由于介绍得比较简要,很多地方没有讲透(众:You can you up!),后来C站论坛里有几个网友开始争论其中的公式有点奇怪,究竟是讲错了还是另有原因(最后结论似乎应该是没讲错)。全程围观的耿先生记录了相关的一些要点。背景: 反向传播算法就是说好比你有一个神经网络,输入层 -> 隐藏层 -> 输出层酱紫。我们现在把所有系数初始化,把训练集里的 x 都代入到输入层,经过层层计算最后得到一组输出值。这时候我们就可以和实际的值 y 作比较,计算cost函数。

2017-10-07

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除