机器学习笔记
文章平均质量分 93
无情码手
AC王
展开
-
机器学习笔记(五)——主成成分分析PCA
主成分分析PCA 介绍 PCA要做的是找到一个方向向量(Vector direction),当把所有的数据都投射到该向量上时,希望投射平均均方误差能尽可能地小。方向向量是一个经过原点的向量,而投射误差是从特征向量向该方向向量作垂线的长度。 若将nnn维数据降至kkk维,目标是找到向量u(1)u^{(1)}u(1),u(2)u^{(2)}u(2),...,u(n)...,u^{(n)}...,u(n),使得总的投射误差最小。 下图中的误差是指:每个点与二维平面上对应投影点之间的距离。 总的来说,PCA是要寻原创 2022-05-03 20:27:58 · 835 阅读 · 2 评论 -
机器学习笔记(四)——支持向量机SVM
支持向量机SVM 逻辑回归 hθ(x)=11+e−θTx(1) h_{\theta}(x)=\frac{1}{1+e^{-\theta^{T} x}} \tag{1} hθ(x)=1+e−θTx1(1) Ify=1,we want hθ(x)≈1,θTx≫0Ify=0,we want hθ(x)≈0,θTx≪0(2) \text{If} \quad y=1, we \,\,\, want \,\,\, h_{\theta}(x) \approx 1, \quad \theta^{T} x原创 2022-04-30 21:13:44 · 951 阅读 · 0 评论 -
机器学习笔记(三)——模型评估及正则化
模型评估及正则化 误差计算 对于线性回归模型,误差计算公式如下。 err(θ)=12m∑i=1m(hθ(x(i))−y(i))2(1) \text{err}(\theta)=\frac{1}{2 m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right)^{2} \tag{1} err(θ)=2m1i=1∑m(hθ(x(i))−y(i))2(1) 对于逻辑回归模型,可以使用错误分类比率计算误差。 err(hθ(x)原创 2022-04-29 12:20:55 · 1210 阅读 · 0 评论 -
# 机器学习笔记(二)——手动编写神经网络前向反向传播
机器学习笔记(二)——手动编写神经网络前向/反向传递 前向传递 \qquad前向传递的原理非常容易,如下图所示。 a1(2)=g(Θ10(1)x0+Θ11(1)x1+Θ12(1)x2+Θ13(1)x3)a2(2)=g(Θ20(1)x0+Θ21(1)x1+Θ22(1)x2+Θ23(1)x3)a3(2)=g(Θ30(1)x0+Θ31(1)x1+Θ32(1)x2+Θ33(1)x3)hΘ(x)=g(Θ10(2)a0(2)+Θ11(2)a1(2)+Θ12(2)a2(2)+Θ13(2)a3(2))(1) \begin原创 2022-04-26 17:10:15 · 1171 阅读 · 0 评论 -
机器学习笔记(一)——逻辑回归
机器学习笔记(一)——逻辑回归原创 2022-04-25 16:36:05 · 509 阅读 · 3 评论