深度学习课程之记录
hyczkg
一只小菜鸡
展开
-
1.1.1 【Deep Learning翻译系列】 Welcome 欢迎光临深度学习课程
你好,欢迎光临。正如你可能知道的那样,深度学习已经改变了传统的互联网业务,如网络搜索和广告。但是,深度学习还可以使全新的产品和业务以及帮助人们创造的方式成为可能。从更好的医疗保健领域,深度学习非常擅长阅读X射线图像,提供个性化教育,精准农业,甚至是自驾车等等。如果你想学习深度学习的工具并能够运用它们来创造这些惊人的东西,我想帮助你达到目标。当你完成Coursera课程的顺序,称为专业化时,你将能够...翻译 2018-05-27 01:50:07 · 273 阅读 · 0 评论 -
1.3.1 【Deep Learning翻译系列】Neural Network Overview神经网络概览
上图是一个神经网络。神经网络中每个的节点对应于的两个步骤:首先计算 z=wTx+bz=w^Tx+bz=wTx+b ,然后计算 a=σ(z)a=\sigma(z)a=σ(z) ,如下图所示。它的计算图如下所示:首先输入 x,W[1],b[1]x,W^{[1]},b^{[1]}x,W[1],b[1] ,来计算 z[1]z^{[1]}z[1] ,然后与对数几率回归类似,使其通过 σ\sigm...翻译 2018-11-28 13:31:36 · 236 阅读 · 0 评论 -
1.2.11 【Deep Learning翻译系列】Explanation of Logistic Regression Cost Function 对数几率回归代价函数的说明
视频地址本视频给出在对数几率回归使用这个成本函数的理由。在之前的对数几率回归中,预测 y^=σ(ωTx+b),\hat y=\sigma(\omega^Tx+b),y^=σ(ωTx+b),其中, σ(z)=11+e−z\sigma(z)=\frac 1 {1+e^{-z}}σ(z)=1+e−z1 。作者对此的解释是: y^=P(y=1∣x)\hat y=P(y=1|x)y^=P(y=...翻译 2018-10-22 00:43:45 · 174 阅读 · 0 评论 -
1.2.9&1.2.10 【Deep Learning翻译系列】Logistic Regression Gradient Descent 对数几率回归的梯度下降
我们按如下方式设置了对数几率回归, z=wTx+b,z=wTx+b,z=w^Tx+b, a=y^=σ(z),a=y^=σ(z),a = \hat y=\sigma(z), L(a,y)=−(1−y)log(1−y^)−ylog(y^).L(a,y)=−(1−y)log(1−y^)−ylog(y^).L(a,y)=-(1-y)\log(1-\hat y)-y\log(\hat y).在...翻译 2018-08-28 16:51:56 · 351 阅读 · 0 评论 -
1.2.7&1.2.8 【Deep Learning翻译系列】Derivatives with a Computation Graph 采用计算图计算微分
我说神经网络的计算是按正向传递或前向传播步骤组织的,我们计算神经网络的输出,然后是反向传递或反向传播步骤,我们用于计算梯度或计算导数。计算图解释了为什么它以这种方式组织。我们将通过一个例子说明计算图(比对数概率回归或完整的神经网络更简单的例子)。假设我们正在尝试计算一个函数J=3(a+bc)J=3(a+bc)J=3(a+bc),我们令u=bcu=bcu=bc,v=a+uv=a+uv=a+u,J...翻译 2018-08-27 17:04:48 · 240 阅读 · 0 评论 -
1.2.4 【Deep Learning翻译系列】Gradient Descent 梯度下降
之前我们已经了解了Logistic Regression。Lost Function可以衡量您在单个训练示例中的表现,Cost Function可以衡量参数www和bbb在整个训练集上的表现。接下来我们会提到如何使用梯度下降算法来训练参数www和bbb。成本函数J=1m∑mi=1L(y^(i),yi)J=1m∑i=1mL(y^(i),yi)J =\frac{1}{m} \sum_{i=1}...翻译 2018-07-15 22:28:12 · 332 阅读 · 0 评论 -
1.2.3 【Deep Learning翻译系列】Logistic Regression Cost Function 对数几率回归的代价函数
在之前的视频中,您看到了对数几率回归模型y=σ(WTx+b),where σ=11+e−zy=σ(WTx+b),where σ=11+e−zy=\sigma(W^Tx+b), where \ \sigma=\frac1{1+e^{-z}}。 要训练对数几率回归模型的参数WWW和bbb,您需要定义一个代价函数。您有一组训练集,希望找到参数WWW和bbb,至少你在训练集上...翻译 2018-06-08 16:10:04 · 317 阅读 · 0 评论 -
1.2.2 【Deep Learning翻译系列】Logistic Regression 对数几率回归
1.2.2 【Deep Learning翻译系列】Logistic Regression 对数几率回归在这个视频中,我们将回顾逻辑回归。当监督学习问题中输出标签Y全部为0或1时,这是一种学习算法。所以对于二元分类问题。给定一个输入特征向量xxx(可能对应于您想要识别为猫图片或不是猫图片的图片),您需要一种可输出预测的算法,我们将其称为y^y^\hat{y},它是您对yyy的估计。 更正式...翻译 2018-06-06 15:07:44 · 224 阅读 · 0 评论 -
1.2.1 【Deep Learning翻译系列】Binary Classification猫图像二分类问题的提出,与符号介绍
你好,欢迎回来(视频网站)。本周我们将介绍神经网络编程的基础知识。事实证明,当你实现一个神经网络时,有一些技术将变得非常重要。例如,如果您有一组训练集,那么您可能会习惯通过训练样本中的四个循环步骤来处理训练集。但事实证明,当你实施一个神经网络时,你通常需要处理整个训练集,而不用明确的四个循环来遍历整个训练集。所以,你会在本周的资料中看到如何做到这一点。另一个想法是,当你组织网络计算时,通常你有所谓...翻译 2018-05-28 03:06:59 · 1983 阅读 · 0 评论 -
1.1.5 【Deep Learning翻译系列】About This Course
原视频网站所以你就要在这个专业化的第一门课程的第一周结束。让我快速了解你将在几周内学到什么。正如我在第一个视频中所说的,这个专业包含五门课程。而现在,我们进入了这五门课程的第一门课程,这门课程教给你最重要的基础,真正是深度学习最重要的基石。所以到第一堂课结束时,你就知道如何建立并开始深入神经网络。所以这里详细介绍了这门课程的内容。本课程为四周材料。而当你看到深度学习的介绍时,你刚刚到达第一周的末尾...翻译 2018-05-27 14:37:11 · 360 阅读 · 0 评论 -
1.1.2 【Deep Learning翻译系列】 What is Neural Network 什么是神经网络
术语“深度学习”指的是训练神经网络,有时是非常大的神经网络。那么究竟是一个神经网络呢?在这个视频中,让我们试着给你一些基本的直觉。我们来看房价预测的例子。假设你有六套房子的数据集,所以你知道房屋面积的平方英尺或平方米,你知道房子的价格,你想要适合一个函数来预测房屋的价格,函数的大小。所以,如果你熟悉线性回归,你可能会说,那么让我们对这些数据做一条直线,然后我们得到这样一条直线。但是你可以说我们知道...翻译 2018-05-27 02:54:01 · 272 阅读 · 0 评论 -
1.1.4 【Deep Learning翻译系列】Why is Deep Learning Taking off? 深度学习为什么近年取得很大的成功?
原视频网站1、数据体量的增加使得神经网络能够发挥优势如果深度学习背后的基础理论已经存在了数十年,为什么他们只是刚刚起飞呢?在本视频中,我们来回顾一下深度学习兴起背后的一些主要驱动因素。过去几年,很多人问我:安德鲁为什么深度学习奏效?当他们问这个问题时,我通常给他们画这样一条曲线。假设我们绘制了一个数字,在横轴上我们绘制了一个任务的数据量,并且让我们在纵轴上绘制上述学习算法的性能,比如我们的垃圾邮件...翻译 2018-05-27 14:05:30 · 1197 阅读 · 0 评论 -
1.1.3 【Deep Learning翻译系列】Supervised Learning with Neural Network 使用神经网络的监督学习
1、神经网络的应用有很多关于神经网络的炒作(hype)。也许有些炒作是合理的,因为他们工作得多好。但事实证明,迄今为止,几乎所有由神经网络产生的经济价值都是通过一种机器学习,称为监督式学习。我们来看一些例子。在监督式学习中,您有一些输入x,并且您想要学习映射到某个输出y的函数。例如,刚才我们看到了房屋价格预测应用程序,您可以在其中输入房屋的某些功能并尝试输出或估计价格y。以下是其他一些神经网络已被...翻译 2018-05-27 10:50:30 · 366 阅读 · 0 评论 -
1.3.2【Deep Learning翻译系列】Activation Functions 激活函数
1、Sigmoid与双曲正切当建立神经网络,要做出的选择之一是在隐藏层、输出单元使用什么激活函数。常见如的Sigmoid函数:σ(z)=11+e−z.\sigma(z)=\frac {1}{1+e^{-z}}.σ(z)=1+e−z1.Sigmoid函数的值域为0到1。激活函数也可以是一个不是Sigmoid的非线性函数。例如双曲(hyperbolic)正切函数:tanh(z)=ez−e...翻译 2018-11-28 20:10:48 · 347 阅读 · 0 评论