- 博客(7)
- 问答 (1)
- 收藏
- 关注
原创 台大李宏毅--深度学习tip(模型优化)
训练结果不好,并不总是因为过拟合训练结果不好,并不总是因为过拟合。有可能是你的training data都没有训练好,那最终结果一定不好深度学习的层数越多,网络越复杂,并不一定模型会越复杂。有时会使得模型变简单,变成欠拟合。在机器学习中,要想让training data 训练的结果非常好是很容易做到的。比如,用svm,甚至可以使得raining data 的训练结果为10...
2018-03-27 13:45:36 1379
原创 台大李宏毅--keras
Keras中文文档 Keras英文文档1. 简述2. keras基本流程以手写数字识别为例1. 定义网络结构2. 设定损失函数的形式3. 模型拟合当batch_size=1时,就是 随机梯度下降 Stochastic gradient descent 我们知道Stochastic gradient descent 比...
2018-03-26 10:56:32 624 1
原创 台大李宏毅-- 反向传播算法 Backpropagation
1. 链式法则2. 反向传播算法 实例 计算前向传播: 比如: 你会发现,输入值就是前向传播中,要求求解的导数的值。 计算后向传播:这里假设,一个样本造成的损失loss是: (每个样本有两个输入x1,x2)综上所述: 由上图可得,在反向传输中,在计算过程中,是先算出最末尾的 ∂C∂y1,∂C∂y2∂C∂y1,∂C∂y2\frac{\par...
2018-03-25 22:32:15 645
原创 台大李宏毅--初入深度学习
1. 神经网络机器学习的复杂所在,就是与 怎么进行特种工程 而深度学习的复杂所在,就是 怎么构造网络的结构(即层数,每层神经元的个数) 所以传统机器学习到深度学习的转化,就是特种工程到构造结构的转化。那么结构可以自动生成吗? 可以,但是还不完善。 2. 神经网络的损失函数那么怎么减少损失函数loss function. ——————》梯度下降...
2018-03-25 20:17:55 586
原创 台大李宏毅--梯度下降Gradient Descent
一:简单梯度下降1. 概述预测模型为 y=b+w∗xcpy=b+w∗xcpy=b+w*x_{cp},真实标签为y^ny^n\hat{y}^n,则损失函数loss function为 我们目的是最小化 损失函数L(w,b),即找出最佳的w∗,b∗w∗,b∗w^*,b^*即处理方法 : 梯度下降法2. 仅含一个参数的梯度下降对某一个参数的偏导数,就是对损失函数在这个参数的...
2018-03-25 16:55:21 1277
原创 书签2.md
我的账号python机器学习markdowm学习基地资源下载在开源社区里下载在论坛,博客下载其他类资源下载优秀博客,杂文数据挖掘,kaggle 竞赛机器学习案例特征工程机器学习类python算法 与 数据结构其他杂文,生活,感慨优秀社区问答社区书籍竞赛函数库数据库acm及其他类型题库树莓派类交流群考研专栏保研论坛中科院网页...
2018-03-16 22:47:29 492
空空如也
求问,python中imaplib怎么只得到邮件附件的txt,html,而不要其他附件
2016-06-09
TA创建的收藏夹 TA关注的收藏夹
TA关注的人