- 博客(6)
- 收藏
- 关注
原创 主成分分析 (Principal Components Analysis, PCA)
通过降维 (Dimensionality Reduction),实现数据压缩以减少计算、存储成本,或实现数据可视化以直观了解数据。1. 数据预处理特征缩放及标准化 (feature scaling / mean normalization): x(i)j=x(i)j−μjsjx^{(i)}_j=\frac{x^{(i)}_j-\mu_j}{s_j}其中 μj=1m∑i=1mx(i)j\mu_j=
2017-08-09 16:13:22 216
原创 K-均值算法 (K-Means Algorithm)
又名K-均值聚类算法 (K-Means Clustering Algorithm),非监督式学习常用的聚类算法。1. 实现给定: - 训练样本{x(1),x(2),...,x(m)}, x(i)∈Rn\{x^{(1)},x^{(2)},...,x^{(m)}\},\ x^{(i)}\in\mathbb R^n - 分类数目KK随机初始化KK个聚类中心 (Culster Centroids) μ1
2017-08-09 15:23:58 219
原创 支持向量机 (Support Vector Machine, SVM)
1. 定义(与逻辑回归(Logistic Regression, LR)的比较)1. Hypothesis函数:LR:hθ(x)=g(θTx)=11+e−θTxh_\theta (x) = g ( \theta^T x )= \dfrac{1}{1 + e^{-\theta^T x }}SVM:hθ(x)=1if θTx≥0hθ(x)=0if θTx<0h_\theta (x) = 1\qu
2017-08-07 10:27:49 307
原创 神经网络 (Neural Networks)
1. Hypothesis 函数 1.二元分类: 以如下神经网络为例: ⎡⎣⎢⎢⎢x0x1x2x3⎤⎦⎥⎥⎥→⎡⎣⎢⎢⎢a(2)1a(2)2a(2)3⎤⎦⎥⎥⎥→hθ(x)\begin{bmatrix}x_0 \newline x_1 \newline x_2 \newline x_3\end{bmatrix}\rightarrow\begin{bmatrix}a_1^{(2)} \ne
2017-07-27 16:19:04 232
原创 逻辑回归(Logistic Regression)
一、回归函数 逻辑函数: g(z)=11+e−z, g(z)∈(0,1)g(z) = \dfrac{1}{1 + e^{-z}},\ g(z)\in(0,1) 回归函数: hθ(x)=g(θTx)=11+e−θTxh_\theta (x) = g ( \theta^T x )= \dfrac{1}{1 + e^{-\theta^T x }} 表示在该xx下y=1y=1的概率,即: hθ
2017-07-12 15:56:29 192
原创 线性回归(Linear Regression)
一、Training Set:x1…xn, yx_1\dots x_n,\ y二、回归函数:hθ(x⃗ )=θ0+θ1x1+⋯+θjxj+⋯+θnxnh_\theta(\vec x)=\theta_0+\theta_1x_1+\cdots+\theta_jx_j+\cdots+\theta_nx_n 使 θ⃗ =⎡⎣⎢⎢θ0⋮θn⎤⎦⎥⎥, x⃗ =⎡⎣⎢⎢x0⋮xn⎤⎦⎥⎥ (x0=1),则 h
2017-07-06 11:24:03 284
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人