机器学习
想想虔诚怎么做
You only live once.
展开
-
李宏毅机器学习-逻辑回归
文章目录逻辑回归和线性回归基本结构决定好坏更新方法Reason生成模型和判别模型Softmax逻辑回归和线性回归基本结构决定好坏更新方法Reason如果是交叉熵,距离target越远,微分值就越大,就可以做到距离target越远,更新参数越快。而平方误差在距离target很远的时候,微分值非常小,会造成移动的速度非常慢,这就是很差的效果了生成模型和判别模型训练集数据量很小的情...原创 2020-03-16 19:16:59 · 302 阅读 · 0 评论 -
李宏毅机器学习-分类
文章目录高斯分布最大似然估计计算方式完成分类修改模型建模三步骤高斯分布简单点可以把高斯分布当作一个 function,输入就是一个向量 x ,输出就是选中 x 的概率(实际上高斯分布不等于概率,只是和概率成正比,这里简单说成概率)。 function由期望 μ 和协方差矩阵 ∑ 决定。上图的例子是说同样的 ∑,不同的 μ ,概率分布的最高点的位置是不同的。下图的例子是同样的 μ,不同的 ∑,概...原创 2020-03-15 19:19:33 · 203 阅读 · 0 评论 -
李宏毅机器学习-梯度下降
文章目录学习率 learning rates学习率的调整自适应学习率Adagrad 算法随机梯度下降特征缩放泰勒展开式多变量展开式梯度下降限制学习率 learning rates学习率的调整learning rate 太小了 下降得太慢learning rate 太大了 下降的很快 很可能永远达不到最低点自适应学习率随着次数的增加,通过一些因子来减少学习率通常刚开始,初始点会距离最...原创 2020-03-15 16:00:01 · 247 阅读 · 0 评论 -
李宏毅机器学习--回归和错误分析
文章目录模型步骤模型假设模型评估最佳模型过拟合问题解决措施Redesign the Model AgainRegularization错误分析模型选择交叉验证N-折交叉验证模型步骤step1:模型假设,选择模型框架(线性模型)step2:模型评估,如何判断众多模型的好坏(损失函数)step3:模型优化,如何筛选最优的模型(梯度下降)模型假设选择使用的是线性模型,特征乘上各自的权重加上...原创 2020-03-14 20:58:06 · 322 阅读 · 0 评论