深度学习吴恩达
Coursera课程
DeepLearning学习笔记
SerenaGirl
这个作者很懒,什么都没留下…
展开
-
卷积神经网络
1、Computer Vision Problems图形分类风格迁移目标检测原创 2019-05-23 22:30:08 · 106 阅读 · 0 评论 -
智能算法
DC-GANlinear gradient in a wgan图像生成和合成生成高分辨率图像,在目标检测方面,对于远处的目标,可以先生成高分辨率图像,再进行检测。风格迁移,模式转换,属性编辑FUZZY LOGIC(相当于层次分析隶属度的概念模糊逻辑决策规则是根据经验决定的,一般依赖于专家系统中国科技论文在线强化学习马尔科夫决策模型(MDP)马尔可夫模型reward:R(S0...原创 2019-05-22 23:13:36 · 255 阅读 · 0 评论 -
正则化
经过了一段时间的学习,对神经网络的结构有了一丢丢了解,那么,你在用的过程中,如果使用了一个神经网络,结果发现它表现的不是很好,可能在训练集上表现不好,可能在验证集上,或者是在最后的测试集,那么我们该怎么调整这个神经网络并且不影响其他的阶段呢?这就需要正则化。1、一个好的验证集+单一化评估指标2、开发集和测试集要来自同一分布3、再次强调,在大数据时代,只需要98%,1%,1%的配比4、根据...原创 2019-05-13 16:48:22 · 204 阅读 · 0 评论 -
BP神经网络
目前,已经相对了解了一些神经网络的基础,所以想尝试一下BP的实现,也为后面的项目工作打基础。原创 2019-05-12 11:06:09 · 175 阅读 · 0 评论 -
第三周:超参数设置
熊猫方式和鱼子酱方式原创 2019-04-30 12:26:36 · 446 阅读 · 0 评论 -
专项课程二,第二周:优化算法
MIni-BatchX^{i} 维数(n,m)Y^{i} 维数(1,m)能够使算法更快,在训练大数据集时会用到。原创 2019-04-28 15:17:21 · 144 阅读 · 0 评论 -
专项课程二:改善的深度神经网络 第一周
Basic recipe for machine learning正则化改善高方差理论基础1、2、Dropout regularization(随即失活算法)在神经网络的每一层,对于每一个神经节点都有50%的概率被删除,从而使神经网络的结构简单化。对于每一个训练样例都有不同的神经网络结构来进行训练。反向随即失活 通过除以keep.prob来保证期望值不变Da...原创 2019-04-27 16:05:09 · 158 阅读 · 0 评论 -
卷积神经网络 第一周 深度学习
##深度学习原创 2019-03-26 23:09:31 · 168 阅读 · 0 评论 -
第六周 卷积神经网络
卷积神经网络原创 2019-03-23 22:11:30 · 105 阅读 · 0 评论 -
第五周 深层神经网络
深层神经网络原创 2019-03-20 22:14:39 · 196 阅读 · 0 评论 -
第四周 浅层神经网络
基本神经网络结构如图是一个两层神经网络结构。(通常输入层不算是一个完整的层)每层的公式如下:Z1[1]=w1[1]Tx+b1[1],a1[1]=α(Z1[1])Z^{[1]}_1 = w_1^{[1]T}x + b_1^{[1]}, a^{[1]}_1= \alpha(Z_1^{[1]})Z1[1]=w1[1]Tx+b1[1],a1[1]=α(Z1[1])...............原创 2019-03-18 21:53:07 · 192 阅读 · 0 评论 -
第三周:使用python编写神经网络代码时的注意点
少使用秩为一的数组在python中,你可能会认为:a = np.random.randn(5)的意思是创建一个向量,但其实是创建了一个秩为5的数组(秩:就是几维数组)他的转置和原数组看起来并没有什么区别,而且与原身相乘之后得到的是一个数字,总之就是十分奇怪的计算方法。所以,我们要使用:a = np.random.randn(5,1)来创建一个5行一列的矩阵。如果不小心创建错误,可采用...原创 2019-03-18 10:19:38 · 156 阅读 · 0 评论 -
第二周:神经网络基础
logistic函数预测概率yhat = w^t * x +b,为了保证概率为1,使用sigmoid函数进行修正,yhat = 1/(1+e-z)(wt+b)损失函数和成本函数利用loss function和cost function 可以来体现预测效果(how well your parameters w and b are doing on the training set.)lo...原创 2019-03-15 12:11:57 · 218 阅读 · 0 评论 -
第一周:监督式学习介绍
在跟进吴恩达的神经网络课程,但是无奈英语基础好差,不能用英语来写博客,就把每节课的笔记翻译成中文写出来。专项课程一 神经网络和深度学习(Neural Networks & Deep Learning)第一周 深度学习概论监督式学习:输入一个数据集,我们很清楚的知道输出结果,并且输入和输出之间存在着某种关系,即监督式学习。主要用于解决回归和分类问题。规模促进神经网络的进...原创 2019-03-10 11:14:52 · 214 阅读 · 0 评论 -
机器学习初步
以上为机器学习中的各种缩略词说明。1、定义机器学习(Machine Learing)是一门多领域交叉类的学科,涉及了概率论,计算机视觉,自然语言处理,统计学,算法等多门学科,是研究计算机如何模拟或者实现人类的学习行为,来获得新的知识或者技能,重新组织已经有的知识结构来不断完善的过程。【1】机器学习是人工智能的一个分支。人工智能的研究是从以“推理”为重点到以“知识”为重点,再到以“学...转载 2018-03-10 16:08:25 · 268 阅读 · 0 评论