深度学习
CoreJia
这个作者很懒,什么都没留下…
展开
-
吴恩达深度学习 2.3 损失函数
笔记代价函数和损失函数损失函数(Loss/error function)是定义在单个训练样本上的,即一个样本的误差。代价函数(Cost function)是定义在整个训练集上面的,对所有样本的误差的总和求平均值。但由于实质相同,都是事先定义一个假设函数,通过训练集由算法找出一个最优拟合,即使得函数值最小(如通过梯度下降法),从而估计出假设函数的参数。所以往往我所看到的大多将代价函数和损失函...原创 2019-03-09 16:52:54 · 2512 阅读 · 0 评论 -
吴恩达深度学习 2.1 二分分类
二分分类的目的:训练出一个分类器,以图片的特征向量x作为输入,预测输出结果标签y是1还是0(x,y)是一个单独的样本x是nx维的特征向量y是标签,值为0或1m是训练集的训练样本个数。(x^(1),)(x(1))表示样本一的输入和输出。(x(2),y(2))表示样本二,(x(m),y^(m))表示最后一个样本m。这些一起就表示整个训练集。用小写的字母m,来表示训练样本的个数。有时候为了强...原创 2019-03-07 13:12:52 · 1292 阅读 · 0 评论 -
吴恩达深度学习 梯度下降法
logistics回归方程损失函数方程原创 2019-04-06 21:51:12 · 1533 阅读 · 0 评论 -
吴恩达 第二周编程作业及总结
代码查看并处理数据import numpy as npimport matplotlib.pyplot as pltfrom lr_utils import load_dataset# lr_utils 是能加载下载好的数据集 datasets 的python文件def get_data(): # 将数据加载 train_set_x_orig, train_set_y...原创 2019-04-06 22:10:14 · 1163 阅读 · 1 评论 -
吴恩达深度学习 浅层深层神经网络
笔记浅层/深层神经网络神经网络的输入层(the input layer):接收输入信号(值)并将其传递至下一层,但不对输入信号(值)执行任何运算,没有自己的权重值和偏置值。神经网络的隐藏层(a hidden layer):在训练集中,这些中间节点的真正数值是无法看到的。输出层(the output layer):接收来自最后一个隐藏层的输入,输出预测值。如图是一个双层神经网络,由于计算...原创 2019-04-26 01:39:02 · 301 阅读 · 1 评论 -
吴恩达 第三周&第四周编程作业
前言主要参考《深度学习——Andrew Ng》第一课第三周编程作业和【中文】【吴恩达课后编程作业】Course 1 - 神经网络和深度学习 - 第三周作业代码network . py 神经网络from datasets.testCases import *from datasets.planar_utils import sigmoid# GRADED FUNCTION: lay...原创 2019-04-27 22:23:33 · 558 阅读 · 0 评论 -
吴恩达Course 2 改善深层神经网络 笔记
本文主要参考红色石头Will大佬的完结篇 | 吴恩达deeplearning.ai专项课程精炼笔记全部汇总、何宽大大的【目录】【中文】【deplearning.ai】【吴恩达课后作业目录】,诸多语句和代码摘取其中原句。两位前辈将吴恩达的学习视频和课后编程作业解读得通俗透彻,适合如我这样的初学者,吹爆!该笔记是吴恩达深度学习课程中Course 2 改善深层神经网络 的全部内容小结,综合了课后编程的...原创 2019-07-27 21:11:34 · 665 阅读 · 1 评论 -
【MC-CNN论文翻译】Computing the Stereo Matching Cost with a Convolutional Neural Network
Computing the Stereo Matching Cost with a Convolutional Neural Network摘要 我们提取出了一种从矫正后的图像对提取深度信息的方法。我们训练一个卷积神经网络来预测两个图像块的匹配程度并计算立体匹配代价。匹配代价细化为基于交叉的代价聚合算法(cross-based cost aggregation)和半全局匹配算法(semigl...原创 2019-08-09 23:17:04 · 3464 阅读 · 1 评论