李宏毅深度学习14天打卡
文章平均质量分 67
hanxiaoxu_
这个作者很懒,什么都没留下…
展开
-
2021-08-28
文章来源:Datawhale 在GitHub上的开源资料为什么用CNN我们都知道CNN常常被用在影像处理上,如果你今天用CNN来做影像处理,当然也可以用一般的neural network来做影像处理,不一定要用CNN。比如说你想要做影像的分类,那么你就是training一个neural network,input一张图片,那么你就把这张图片表示成里面的pixel,也就是很长很长的vector。output就是(假如你有1000个类别,output就是1000个dimension)dimension转载 2021-08-28 19:30:10 · 204 阅读 · 0 评论 -
李宏毅深度学习P18
当你的模型表现不好,应该怎么处理?如上图建立deep learning的三个步骤• define a set function• goodness of function• pick the best function做完这些事情后,你会得到一个neural network。在得到neural network后。神经网络的表现(1)首先你要检查的是,这个neural network在你的training set有没有得到好的结果(是否陷入局部最优),没有的话,回头看,是哪个步骤出了什么问题,.原创 2021-08-27 14:15:27 · 225 阅读 · 1 评论 -
李宏毅深度学习打卡P15 Keras
文章来源:datawhale公开资料keras 是什么Keras 是一个用 Python 编写的高级神经网络 API,它能够以 TensorFlow, CNTK, 或者 Theano 作为后端运行。示例以手写数字识别为例步骤1:定义模型neural network是长什么样的,在keras首先定义model是sequentialmodel = sequential()第1个隐藏层你看要你的neural长什么样子,自己就决定长什么样子,举例,这里hidden layer 有两个lay原创 2021-08-26 16:32:26 · 113 阅读 · 0 评论 -
李宏毅深度学习打卡task04深度学习初步P13
本文来源Datawhale分享的深度学习资料深度学习发展趋势1958: Perceptron (linear model)1969: Perceptron has limitation1980s: Multi-layer perceptronDo not have significant difference from DNN today1986: BackpropagationUsually more than 3 hidden layers is not helpful原创 2021-08-22 22:26:21 · 236 阅读 · 0 评论 -
李宏毅深度学习打卡task3-P6-梯度下降
梯度下降思维导图整理原创 2021-08-19 23:24:43 · 131 阅读 · 0 评论 -
李宏毅深度学习task2打卡-p5误差从哪里来
测试数据上的平均误差是由bias和variance造成的?什么是bias?什么是varianceError = Bias + VarianceError反映的是整个模型的准确度,Bias反映的是模型在样本上的输出与真实值之间的误差,即模型本身的精准度,Variance反映的是模型每一次输出结果与模型输出期望之间的误差,即模型的稳定性。!越简单的model variance可能会越小,越复杂的variance会越大!bias与之相反一般bias大而variance小往往说明模型欠拟合;一般原创 2021-08-18 23:41:45 · 145 阅读 · 0 评论 -
李宏毅深度学习task01
李宏毅深度学习笔记打卡01(P1-P4)一 机器学习简介-机器学习相关技术监督学习:1.1 分类1.2 回归1.3 结构化半监督无监督迁移学习强化学习二 回归应用:股市预测;攻击力预测;建模步骤:step1:模型假设,选择模型框架step2:模型评估,通过loss functionstep3:局部最优解,对loss function进行梯度下降,梯度下降时的学习率learning rate是指每一次下降的步长三 课堂代码实例import numpy as np原创 2021-08-15 19:25:25 · 157 阅读 · 0 评论