![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 69
倪风俠
本科软件工程,研究生在读,主修人工智能应用结合电气中的电力系统方向
展开
-
机器学习之 线性回归,lasso,ridge回归,对数几率回归(逻辑回归),线性判别分析
@机器学习之 线性回归,对数几率回归(逻辑回归),线性判别分析属性特征处理:二值离散特征(0和1)有序连续特征(1,2,3对应小 中 大)无序离散特征(one-hot编码)线性回归均方误差最小化(最小二乘估计)几何意义上是预测值和实际值的差平方(并不是垂直距离的误差,那样成了正交差)aigmin(w,b) 求最小值的w和b极大似然估计(估计概率分布的参数值)问:线性回归中怎么能利用极大似然估计去估计y(预测值)的分布呢将误差代替之后,y就是原概率密度函数中独立同分布的随机变原创 2021-10-26 14:59:16 · 1304 阅读 · 0 评论 -
极大似然估计
极大似然估计之前没有真正的搞清楚,在听了Datawhale的机器学习课程之后,对它有一些清楚的明了 ,下面简单的对其进行介绍,由于不会使用一些公式插入,可能直接使用了图片,但是最终的目的还是为了读明白:极大似然估计(估计分布的参数)这个方法的用途是 估计概率分布的参数值 也是得到一个函数 -> 参数在上面 离散型的随机变量X,是概率质量函数P, 连续型的是概率密度函数p(由概率论定义)在建模之前,我们可能会给定数据分布的一种形态,例如是正态分布或者其他例如: 正态分布 其中的θ就原创 2021-10-20 17:05:04 · 251 阅读 · 0 评论