神经网络
翎修阳
这个作者很懒,什么都没留下…
展开
-
吴恩达深度学习课程第二课 — 改善深层神经网络:超参数调试、正则化以及优化1
1.1 训练,验证,测试集(Train / Dev / Test sets)原创 2020-04-06 09:32:23 · 137 阅读 · 0 评论 -
吴恩达深度学习课程第一课 — 神经网络与深度学习4
4.6 搭建神经网络块(Building blocks of deep neural networks) 红色箭头为反向传播 上图中dA[l]不是相加而是矩阵排开 ...原创 2020-04-05 17:44:05 · 103 阅读 · 0 评论 -
吴恩达深度学习课程第一课 — 神经网络与深度学习3
第三周原创 2020-02-14 17:52:30 · 108 阅读 · 0 评论 -
吴恩达深度学习课程第一课 — 神经网络与深度学习1,2
第二周 逻辑回归是一个用于二分类(binary classification)的算法。 sigmoid函数 在梯度下降法中,会得到局部最优解,不能得到全局最优解 在逻辑回归中,使用的损失函数: 损失函数是在单个训练样本中定义的,它衡量的是算法在单个训练样本中表现如何,为了衡量算法在全部训练样本上的表现如何。 我们需要定义一个算法的代价函数,算法的代价函数是对m个样本的损...原创 2020-02-09 11:04:19 · 343 阅读 · 0 评论 -
TensorFlow lesson 5-全连接网络基础
1.MINIST数据集 zzz原创 2020-02-07 15:28:48 · 131 阅读 · 0 评论 -
TensorFlow lesson 4-NN优化
1.损失函数 自定义损失函数 交叉熵:越大表示两个概率分布越远 为了让前向传播满足概率分布,即n分类的n个输出都在0~1之间,且和为1,引入softmax函数 上述两个语句可替换求交叉熵的语句,输出为损失函数 2.学习率 学习率:每次参数更新的幅度 上图中,损失函数最小,要w=-1 指数衰减学习率 global_st...原创 2020-02-04 15:34:26 · 128 阅读 · 0 评论 -
TensorFlow lesson 3
张量的概念 计算图只搭建网络,不计算 一行一列的张量 会话(session):执行计算图中的节点运算(得到运算结果) 报错 新版TensorFlow2.0改为 前向传播 随机种子如果去掉,每次生成的随机数将会是一致的 神经网络的搭建 前向传播 tf2的情况下使用了tf1的API,解决方法: 反向传播 ...原创 2020-02-02 12:20:33 · 102 阅读 · 0 评论