自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 问答 (1)
  • 收藏
  • 关注

原创 台大李宏毅--深度学习tip(模型优化)

训练结果不好,并不总是因为过拟合训练结果不好,并不总是因为过拟合。有可能是你的training data都没有训练好,那最终结果一定不好深度学习的层数越多,网络越复杂,并不一定模型会越复杂。有时会使得模型变简单,变成欠拟合。在机器学习中,要想让training data 训练的结果非常好是很容易做到的。比如,用svm,甚至可以使得raining data 的训练结果为10...

2018-03-27 13:45:36 1379

原创 台大李宏毅--keras

Keras中文文档 Keras英文文档1. 简述2. keras基本流程以手写数字识别为例1. 定义网络结构2. 设定损失函数的形式3. 模型拟合当batch_size=1时,就是 随机梯度下降 Stochastic gradient descent 我们知道Stochastic gradient descent 比...

2018-03-26 10:56:32 624 1

原创 台大李宏毅-- 反向传播算法 Backpropagation

1. 链式法则2. 反向传播算法 实例 计算前向传播: 比如: 你会发现,输入值就是前向传播中,要求求解的导数的值。 计算后向传播:这里假设,一个样本造成的损失loss是: (每个样本有两个输入x1,x2)综上所述: 由上图可得,在反向传输中,在计算过程中,是先算出最末尾的 ∂C∂y1,∂C∂y2∂C∂y1,∂C∂y2\frac{\par...

2018-03-25 22:32:15 645

原创 台大李宏毅--初入深度学习

1. 神经网络机器学习的复杂所在,就是与 怎么进行特种工程 而深度学习的复杂所在,就是 怎么构造网络的结构(即层数,每层神经元的个数) 所以传统机器学习到深度学习的转化,就是特种工程到构造结构的转化。那么结构可以自动生成吗? 可以,但是还不完善。 2. 神经网络的损失函数那么怎么减少损失函数loss function. ——————》梯度下降...

2018-03-25 20:17:55 586

原创 台大李宏毅--梯度下降Gradient Descent

一:简单梯度下降1. 概述预测模型为 y=b+w∗xcpy=b+w∗xcpy=b+w*x_{cp},真实标签为y^ny^n\hat{y}^n,则损失函数loss function为 我们目的是最小化 损失函数L(w,b),即找出最佳的w∗,b∗w∗,b∗w^*,b^*即处理方法 : 梯度下降法2. 仅含一个参数的梯度下降对某一个参数的偏导数,就是对损失函数在这个参数的...

2018-03-25 16:55:21 1277

原创 书签2.md

我的账号python机器学习markdowm学习基地资源下载在开源社区里下载在论坛,博客下载其他类资源下载优秀博客,杂文数据挖掘,kaggle 竞赛机器学习案例特征工程机器学习类python算法 与 数据结构其他杂文,生活,感慨优秀社区问答社区书籍竞赛函数库数据库acm及其他类型题库树莓派类交流群考研专栏保研论坛中科院网页...

2018-03-16 22:47:29 492

原创 生成学习算法a

最好求得

2018-03-04 21:35:14 364

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除