![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Zero黑羽枫
MachineLearning 潜心研究中··
欢迎来公众号「MachineLearning学习之路」一起进步!
展开
-
梯度下降总结(BGD ,SGD, MBGD)
1. 从梯度下降开始这两天学习了机器学习课程的第二课,课程内容是围绕梯度下降展开的,下面就我的学习内容做一个总结。什么是梯度下降?梯度下降 (Gradient Decent) 是优化算法的一种,其思想是让损失函数沿着梯度的方向下降, 以最快的速度取到最小值。为啥是沿梯度的方向?因为梯度 (gradient) 就是函数变化最快的方向,贴一个梯度的定义: 梯度-维基百科,想深入了解的同学可以...原创 2019-02-23 20:01:51 · 527 阅读 · 0 评论 -
逻辑回归(Logistic Regression) 总结
本文是我在学习了逻辑回归课程之后的总结,文中所阐述的内容仅仅是我个人的理解,如有错误或疏漏,欢迎大家批评指正。1.逻辑回归的假设函数在分类问题中,二分类问题有着很重要的地位,例如在判断某人是否得某种病,或者某封邮件是否为垃圾邮件等等的场景中都会用到。考虑二分类问题,对于任意输入,输出结果应该只有两种情况,即{0,1}\left\{ 0, 1 \right\}{0,1} ,我们要找的假设函数 h...原创 2019-03-01 20:51:46 · 406 阅读 · 0 评论 -
朴素贝叶斯(Naive Bayes)学习总结
朴素贝叶斯算法的基本思想是建立特征XXX与输出 YYY 之间的联合概率分布 P(X,Y)P(X, Y)P(X,Y) ,在对给定的特征进行预测时,通过贝叶斯定理求出所有可能的输出 P(X∣Y)P(X | Y)P(X∣Y) ,取其中最大的作为预测结果。其优点是模型简单,效率高,在很多领域有广泛的使用。生成学习算法与判别学习算法生成学习算法与判别学习算法是监督学习的两种方式,今天要说的朴素贝叶斯算...原创 2019-03-10 17:45:37 · 420 阅读 · 0 评论 -
机器学习中的正则化(Regularization)
文中部分图片摘自吴恩达deeplearning课程的作业,代码及课件在我的github:DeepLearning 课件及作业关于本篇正则化的具体路径是:正则化作业正则化的概念及原因简单来说,正则化是一种为了减小测试误差的行为(有时候会增加训练误差)。我们在构造机器学习模型时,最终目的是让模型在面对新数据的时候,可以有很好的表现。当你用比较复杂的模型比如神经网络,去拟合数据时,很容易出...原创 2019-03-31 16:44:25 · 348 阅读 · 0 评论