自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

萌新瑟瑟发抖

发抖干嘛,愣着啊

原创 【MC-CNN论文翻译】Computing the Stereo Matching Cost with a Convolutional Neural Network

Computing the Stereo Matching Cost with a Convolutional Neural Network摘要​ 我们提取出了一种从矫正后的图像对提取深度信息的方法。我们训练一个卷积神经网络来预测两个图像块的匹配程度并计算立体匹配代价。匹配代价细化为基于交叉的代价聚合算法(cross-based cost aggregation)和半全局匹配算法(semigl...

2019-08-09 23:17:04 1228

原创 吴恩达Course 2 改善深层神经网络 笔记

本文主要参考红色石头Will大佬的完结篇 | 吴恩达deeplearning.ai专项课程精炼笔记全部汇总、何宽大大的【目录】【中文】【deplearning.ai】【吴恩达课后作业目录】,诸多语句和代码摘取其中原句。两位前辈将吴恩达的学习视频和课后编程作业解读得通俗透彻,适合如我这样的初学者,吹爆!该笔记是吴恩达深度学习课程中Course 2 改善深层神经网络 的全部内容小结,综合了课后编程的...

2019-07-27 21:11:34 247 1

原创 吴恩达 第三周&第四周编程作业

前言主要参考《深度学习——Andrew Ng》第一课第三周编程作业和【中文】【吴恩达课后编程作业】Course 1 - 神经网络和深度学习 - 第三周作业代码network . py 神经网络from datasets.testCases import *from datasets.planar_utils import sigmoid# GRADED FUNCTION: lay...

2019-04-27 22:23:33 308

原创 吴恩达深度学习 浅层深层神经网络

笔记浅层/深层神经网络神经网络的输入层(the input layer):接收输入信号(值)并将其传递至下一层,但不对输入信号(值)执行任何运算,没有自己的权重值和偏置值。神经网络的隐藏层(a hidden layer):在训练集中,这些中间节点的真正数值是无法看到的。输出层(the output layer):接收来自最后一个隐藏层的输入,输出预测值。如图是一个双层神经网络,由于计算...

2019-04-26 01:39:02 94 1

原创 C++对输入string字符串进行格式判断并转化为time_t时间戳

C++对输入string字符串进行格式判断并转化为time_t时间戳前言学校实验要求输入一个时间段,在此时间段内进行查询统计。我的思路是规定格式,让用户按照格式分别输入开始时间和结束时间,对时间格式进行判断,为有效时间后,将string字符串转化为time_t时间戳,通过时间戳比大小获得相应时间段的数据。在格式判断方面,我最初是一大连串if条件判断,耗时耗力也冗杂易错。后来经过男票的提醒,...

2019-04-07 12:13:07 1051

原创 吴恩达 第二周编程作业及总结

代码查看并处理数据import numpy as npimport matplotlib.pyplot as pltfrom lr_utils import load_dataset# lr_utils 是能加载下载好的数据集 datasets 的python文件def get_data(): # 将数据加载 train_set_x_orig, train_set_y...

2019-04-06 22:10:14 748

原创 吴恩达深度学习 梯度下降法

logistics回归方程损失函数方程

2019-04-06 21:51:12 547

原创 吴恩达深度学习 2.3 损失函数

笔记代价函数和损失函数损失函数(Loss/error function)是定义在单个训练样本上的,即一个样本的误差。代价函数(Cost function)是定义在整个训练集上面的,对所有样本的误差的总和求平均值。但由于实质相同,都是事先定义一个假设函数,通过训练集由算法找出一个最优拟合,即使得函数值最小(如通过梯度下降法),从而估计出假设函数的参数。所以往往我所看到的大多将代价函数和损失函...

2019-03-09 16:52:54 550

原创 吴恩达深度学习 2.2 logistic回归

笔记引言logistic回归是机器学习中的一种分类模型,用在监督学习中输出y标签是0或1的时候。属于一种在线学习(动态扩展)算法,可以利用新的数据各个特征的权重进行更新,而不需要重新利用历史数据训练。logistic回归本质上通过在线性回归模型中引入Sigmoid函数,将线性回归的不确定范围的连续输出值映射到(0,1)范围内,成为一个概率预测问题。线性回归概念:对于多维空间中存在的样本点...

2019-03-08 23:59:55 184

原创 吴恩达深度学习 2.1 二分分类

二分分类的目的:训练出一个分类器,以图片的特征向量x作为输入,预测输出结果标签y是1还是0(x,y)是一个单独的样本x是nx维的特征向量y是标签,值为0或1m是训练集的训练样本个数。(x^(1),)(x(1))表示样本一的输入和输出。(x(2),y(2))表示样本二,(x(m),y^(m))表示最后一个样本m。这些一起就表示整个训练集。用小写的字母m,来表示训练样本的个数。有时候为了强...

2019-03-07 13:12:52 670

提示
确定要删除当前文章?
取消 删除