![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
不会写代码的美年达
这个作者很懒,什么都没留下…
展开
-
【机器学习入门】1.1线性回归之最小二乘——拟合函数,误差函数,极大似然函数,最小二乘法,偏导->求出θ
假设 误差是 独立,同分布,服从高斯分布的,在这个基础上做出结果,是符合要求的,所以可以接受这个假设原创 2018-05-22 16:11:08 · 3605 阅读 · 1 评论 -
【机器学习入门】1.2线性回归之梯度下降
梯度:上升 指向标量场增长最快的方向梯度下降:下降的 指向标量场下降最快的方向机器学习:一个目标函数求解一步步迭代(线性回归只是个特例,可以直接求解)为什么不快速迭代:一小步一小步,走快了容易跌倒:陷入一个极小值点出不来了,全局上看并不是最小值点学习率(步长)太快:容易出错选择:小学习率,大迭代次数3种梯度下降的方法:1.批量梯度下降:全部样本:费事,收敛2.随机梯度下降:一个样本:离群点、异常点...原创 2018-05-23 11:43:43 · 198 阅读 · 0 评论 -
【机器学习入门】1.3线性回归之逻辑回归
逻辑回归概念: 不是回归,是分类,经典的二分类算法应用: 机器学习算法选择:先逻辑回归再用复杂的算法逻辑回归步骤:预测函数->逻辑回归二分类概率->似然函数最大->梯度下降->求偏导1、把目标函数带入sigmoid函数,进行逻辑回归:2、求似然函数最大值->改用梯度下降任务求偏导3、用偏导的结果 即逻辑回归结果 去更新参数:α学习率,- 梯度下降求得的最小...原创 2018-05-23 12:46:03 · 162 阅读 · 0 评论 -
【机器学习入门】1.4线性回归之案例
### 要完成的模块- `sigmoid` : 映射到概率的函数- `model` : 返回预测结果值- `cost` : 根据参数计算损失- `gradient` : 计算每个参数的梯度方向- `descent` : 进行参数更新- `accuracy`: 计算精度1.基本思想改数据->改模型2.不同停止策略、梯度下降方法的不同实验效果对比步长:小、样本数:取一部分迭代次数:多...原创 2018-05-23 23:42:12 · 212 阅读 · 0 评论