- 博客(22)
- 资源 (33)
- 问答 (1)
- 收藏
- 关注
原创 2020-6-25 吴恩达-NN&DL-w4 深层NN(课后编程1-Building your Deep Neural Network: Step by Step)
原文链接如果打不开,也可以复制链接到https://nbviewer.jupyter.org中打开。一步一步搭建你的深度NN Building your Deep Neural Network: Step by Step1.本文涉及的基本库2.任务概述在前面你已经学习了训练单隐层NN。本节课你将搭建一个深层NN,至于用多少层,你说了算。本节中,你将实现几个函数用于搭建深层NN这些函数将在下节编程中用于搭建一个深层NN,实现图像识别分类完成本节编程后,你可以使用非线性单元ReLU改善你的
2020-06-26 15:50:48 265
原创 2020-6-23 Power BI
Power BI有在线版本和桌面版本桌面版本下载地址 https://powerbi.microsoft.com/en-us/desktop/点击 download free我下载的是PBIDesktopSetup_x64.exe。安装很简单打开桌面版本微软对Power BI目前有三种授权方式,免费版(Power BI Free),专业版(Power BI Pro),以及增值版(Power BI Premium)。免费版的不能向别人共享报表,也不能打开别人的共享报表。详细参见链
2020-06-23 10:17:58 767
原创 2020-5-27 吴恩达-改善深层NN-w1 深度学习的实用层面(1.14 关于梯度检验实现的注意事项)
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.14 关于梯度检验实现的注意事项 Gradient Checking implementation notes1.不要在训练中使用梯度检验,它只用于调试
2020-06-22 13:08:43 175
原创 2020-5-26 吴恩达-改善深层NN-w1 深度学习的实用层面(1.13 梯度检验(原理)-检查导数和梯度的逼近值是否相差过大)
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.13 梯度检验 Gradient Checking梯度检验帮我们节省了很多时间,也可以发现反向传播backprop实施过程中的bug。本节我们看看如何
2020-06-22 13:08:24 126
原创 2020-5-25 吴恩达-改善深层NN-w1 深度学习的实用层面(1.12 梯度的数值逼近(使用双边误差)--实现梯度检验需要)
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.12 梯度的数值逼近 Numerical approximation of gradients在实施反向传播backprop时,有一个测试叫做梯度检验
2020-06-22 13:08:01 426
原创 2020-5-24 吴恩达-改善深层NN-w1 深度学习的实用层面(1.11 神经网络的权重初始化--减少梯度爆炸或过快消失-初始化权重矩阵的方差公式)
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.11 神经网络的权重初始化 Weight Initialization for Deep NetworksVanishing / Exploding g
2020-06-22 13:07:42 181
原创 2020-5-24 吴恩达-改善深层NN-w1 深度学习的实用层面(1.10 梯度消失与梯度爆炸--激活函数与L层相关的指数级递减(步长小,学习时间长)或者增加。)
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.10 梯度消失与梯度爆炸 Vanishing/exploding gradients训练NN,尤其是深度神经所面临的一个问题就是梯度消失或梯度爆炸。也
2020-06-22 13:07:25 199
原创 2020-5-22 吴恩达-改善深层NN-w1 深度学习的实用层面(1.9 归一化输入(特征)-加速训练,优化J简单-因为任何位置都可以快速下降,步长大)
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.9 归一化输入 Normalizing inputs训练NN,其中一个加速训练的方法就是归一化输入。如上图,数据集的散点图。假设一个训练集有两个
2020-06-22 13:06:31 225
原创 2020-5-22 吴恩达-改善深层NN-w1 深度学习的实用层面(1.7 理解 Dropout--压缩权重/分层设置keep-prob)
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.7 理解 Dropout Why does drop out work?1.单个神经元实施Dropout2.NN实施Dropout3.两个使用Dropo
2020-06-22 13:05:54 607
原创 2020-5-21 吴恩达-改善深层NN-w1 深度学习的实用层面(1.6 Dropout 正则化-inverted dropout反向随机失活)
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.6 Dropout 正则化 Dropout regularization1.工作原理2.反向随机失活 inverted dropout2.1训练阶段2.
2020-06-22 13:05:34 335
原创 2020-5-20 吴恩达-改善深层NN-w1 深度学习的实用层面(1.5 为什么正则化可以减少过拟合?(L2正则化举例))
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.5 为什么正则化可以减少过拟合?Why regularization reduces overfitting本节将介绍为什么正则化有利于预防过拟合和减
2020-06-22 13:05:13 150
原创 2020-5-19 吴恩达-改善深层NN-w1 深度学习的实用层面(1.4 正则化-L2正则化/弗罗贝尼乌斯范数/权重衰减)
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.4 正则化 Regularization1.正则化的作用原理2.L1和L2正则化3.NN中实现L2正则化4.利用弗罗贝尼乌斯范数实现梯度下降-权重衰减
2020-06-22 13:04:31 355
原创 2020-5-18 吴恩达-改善深层NN-w1 深度学习的实用层面(1.3 机器学习基础-诊断/解决偏差(大网络)和方差(大数据)问题)
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.3 机器学习基础 Basic “recipe” for machine learning本节主要介绍如何通过组织机器学习来诊断偏差和方差的基本方法,然
2020-06-22 13:04:09 135
原创 2020-5-18 吴恩达-改善深层NN-w1 深度学习的实用层面(1.2 偏差-欠拟合(训练集)/方差-过拟合(验证集))
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.2 偏差/方差 Bias/Variance1. 二维数据集2. 高维数据集3. 高误差-贝叶斯误差4. 高偏差和高方差总结DL的误差问题,一个趋势是对
2020-06-22 13:03:43 175
原创 2020-5-15 吴恩达-改善深层NN-w1 深度学习的实用层面(1.1 训练/开发(验证)/测试集)
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai1.1 训练/开发(验证)/测试集 Train/dev/test sets本节将介绍在配置训练、验证和测试数据集的过程中,做出正确决策会在很大程度上帮助大
2020-06-22 13:03:24 201
原创 2020-5-15 吴恩达DL学习-改善深层NN-第一周 深度学习的实用层面
1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c2.详细笔记网站(中文):http://www.ai-start.com/dl2017/3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai第一周 深度学习的实用层面 Setting up your ML application1.1 训练/开发/测试集 Train/dev/test set
2020-06-22 13:02:58 181
原创 2020-6-21 吴恩达-NN&DL-w4 深层NN(课后作业)
参考 https://zhuanlan.zhihu.com/p/312722161、What is the “cache” used for in our implementation of forward propagation and backward propagation?实现前向传播和反向传播中使用的“cache”是什么?It is used to cache the intermediate values of the cost function during training.用于
2020-06-21 14:59:08 406
原创 2020-6-13 吴恩达-NN&DL-w3 浅层NN(课后编程-Planar data classification with one hidden layer)
原文链接如果打不开,也可以复制链接到https://nbviewer.jupyter.org中打开。单隐层NN平面数据分类 Planar data classification with one hidden layer1.本文涉及的基本库2.数据集 Dataset本次练习将构建一个单隐层NN。你会发现这个模型和逻辑回归实现的模型有很大的区别。你将会学习构建一个单隐层2分分类NN使用具有非线性激活函数神经元,例如tanh函数计算交叉熵损失(损失函数)实现前向传播和反向传播1.本文涉及的
2020-06-14 17:12:11 453
原创 2020-6-10 吴恩达-NN&DL-w3 浅层NN(课后作业)
参考 https://zhuanlan.zhihu.com/p/312709441, Which of the following are true? (Check all that apply.) Notice that I only list correct options.X is a matrix in which each column is one training example.a4[2]a^{[2]}_4a4[2] is the activation output by the
2020-06-10 12:46:01 244
原创 2020-6-8 吴恩达-深度学习课程汇总
第一课 神经网络和深度学习 Neural Network and Deep Learning第一周 概论 Intrduction第二周 神经网络基础第三周 浅层神经网络第四周 深层神经网络
2020-06-08 14:06:52 472
原创 2020-6-6 吴恩达-NN&DL-w2 NN基础(课后编程-Logistic Regression with a Neural Network mindset)
原文链接使用NN思维构筑逻辑回归 Logistic Regression with a Neural Network mindset )1.本文涉及的基本库2. 训练集/测试集概况和预处理1-1.弄清数据集维度1-2.重构数据集1-3.数据预处理总结本练习将使用逻辑回归分类来识别猫。这项作业将指导你如何用NN的思维方式来完成任务,也将培养你对DL的直觉。请不要在代码中使用循环(for/while),除非作业明确要求你这样做。通过作业你可以学习如何建立学习算法的总体架构,包含初始化参数计算成本
2020-06-07 13:31:01 368
原创 2020-5-31 吴恩达-NN&DL-w2 NN基础(课后作业)
参考https://zhuanlan.zhihu.com/p/312688851、神经元计算什么?神经元先计算激活函数,再计算线性函数(z = Wx + b)神经元先计算线性函数(z = Wx + b),再计算激活函数。(正确)神经元计算函数g,函数g计算(Wx + b)。在将输出应用于激活函数之前,神经元计算所有特征的平均值...
2020-06-01 15:08:26 281
MSTG手册-英文版
2020-04-26
OWASP_MASVS-v1.2(英文版)
2020-04-24
获取猿急送页面数据-代码
2019-12-06
吴恩达-C5 序列模型-w2 自然语言处理与词嵌(课后编程2-Emojifier-V2模型)
2021-01-17
吴恩达-C5 序列模型-w2 自然语言处理与词嵌(课后编程2-Emojifier-V1模型)
2021-01-17
吴恩达-C5 序列模型-w2 自然语言处理与词嵌(课后编程1-Operations on word vectors 词向量运算
2021-01-10
吴恩达第4课第2周编程作业1 Keras - Tutorial - Happy House代码。
2020-10-17
吴恩达第4课第1周编程作业Convolutional Neural Networks: Step by Step代码。
2020-10-03
TA创建的收藏夹 TA关注的收藏夹
TA关注的人