![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
machine-learning
街头小默
Stay hungry, stay foolish.
展开
-
[Machine Learning]Kmeans 算法 python 实现
上了斯坦福Andrew NG 课,把所有的练习用matlab 做完一遍之后感觉意犹未尽,因此决定用pyton 将课内算法逐一实现一遍,以加深理解,同时也避免自己成为调包侠,哈哈,话不多说,进入正题。 Kmeans 是一个经典的无监督聚类算法,算法内容比较容易理解。有兴趣的同学可以百度相关论文研读其内容,这里不再赘述。原创 2017-12-12 23:04:14 · 650 阅读 · 0 评论 -
[Machine Learning]PCA 算法 python 实现
PCA , principal component analysis, 即主成分分析算法, 是机器学习中一种常用的对训练样本进行降维的算法。具体推导过程这里不再赘述。简而言之,它是根据训练样本的特征(feature)分布特性,找到特征方差最大的特征向量组k,来替代原有的特征数n作为训练样本的表征(基),来重新描述训练样本,从而达到减少特征(即降低维度)目的。原创 2017-12-20 21:31:00 · 695 阅读 · 0 评论 -
[Machine Learning]多元线性回归与多项式回归Python实现
在一元线性回归中,输入特征只有一维, hθ=θ0+x1θ1h_{θ}=θ_0 + x_1θ_1, 对于多元特征,假设函数推广到了 hθ=θ0+x1θ1+x2θ2+x3θ3+...+xmθmh_{θ}=θ_0 + x_1θ_1+ x_2θ_2+ x_3θ_3+...+ x_mθ_m 对于非线性的一维数据,用线性回归拟合结果并不好,可以采用多项式回归,手动增加特征,例如如下4种多项式拟合 hθ原创 2018-01-07 00:44:07 · 5210 阅读 · 1 评论 -
[Machine Learning]Linear regression 一元线性归回Python实现
Linear regression 是机器学习中一种常用的预测算法。他根据训练样本的分布,提出一个假设函数h(θ)Xh_{(θ)}X, 然后利用最小二乘估计,构造出损失函数J(θ)J(θ), 对损失函数求偏导,找到对应于J(θ)J(θ)最小值的那一组θθ, 作为拟合曲线的参数。而寻找J(θ)J(θ)最小值的方法, 就是梯度下算法。本篇博客用简单的一元线性归回做例子,并用python实现。关于推广情原创 2018-01-01 16:17:55 · 713 阅读 · 0 评论