机器学习
_rho
这个作者很懒,什么都没留下…
展开
-
主成分分析 -- Principal Components Analysis
如今,数据挖掘和机器学习常面对高维数据(X∈RdX \in \R^{d}X∈Rd)。为了应对高维数据,数据预处理通常需要对数据做降维处理(Y=f(X)∈Rp,p≪dY = f(X) \in \R^{p}, p \ll dY=f(X)∈Rp,p≪d)。在降低数据维度的同时,要尽可能的保留原有的数据信息。主成分分析便是一种常用的降维方法。它在降维的同时尽可能的保留原数据的方差信息。假设我们有下图中的二维数据(X=[x1,x2]TX = [x_{1}, x_{2}]^{T}X=[x1,x2]T),我们想将其原创 2019-11-16 22:09:35 · 444 阅读 · 0 评论 -
逻辑回归实战 — Kaggle_Titanic
数据来源:https://www.kaggle.com/c/titanicTrainingimport pandasimport numpyimport timeimport matplotlib.pyplot as plt%matplotlib inlinedef prepareData(filename): data = pandas.read_csv(filename) data['Sex'] = data['Sex'].map({'female':0, 'm原创 2017-12-08 11:09:34 · 470 阅读 · 0 评论 -
逻辑回归实战 — Kaggle_Titanic 2
数据来源:https://www.kaggle.com/c/titanicTrainingimport pandas as pdimport matplotlib.pyplot as pltimport numpy as np%matplotlib inlinetrain_data = pd.read_csv('train.csv')count_survivors = pd.value_counts(train_data['Survived'])count_survivors.plot(原创 2017-12-13 09:13:07 · 1769 阅读 · 0 评论 -
卷积神经网络 — Convolutional Neural Network
卷积神经网络翻译 2018-01-22 15:18:12 · 734 阅读 · 0 评论 -
Backpropagation Algorithm Implementation
数据来源:http://yann.lecun.com/exdb/mnist/以下代码实现了一个三层的神经网络,其激活函数为sigmod functionsigmod\ functionsigmod function。笔者运行了多次都遇到了sigmodsigmodsigmod梯度消失,模型预测效果蛮差。读者也可试试其它激活函数。阅读本程序可助于深入理解神经网络和反向传播算法。import osimport numpy as npimport randomfrom mnist im原创 2018-01-06 23:02:42 · 298 阅读 · 1 评论 -
Networks with Linear Activation Function
import numpy as npimport matplotlib.pyplot as plt%matplotlib inlineFor Linear Separable Problem#inputX = np.array([[1,0,0], [1,0,1], [1,1,0], [1,1,1]])#labelY = np.array([-1,1,1,1])#weights vectorW = np.r原创 2018-01-03 11:11:39 · 1032 阅读 · 0 评论 -
Softmax回归 — Softmax Regression
Softmax回归翻译 2017-12-28 14:41:56 · 299 阅读 · 0 评论 -
反向传播算法 — Backpropagation
反向传播算法翻译 2017-12-26 15:52:26 · 509 阅读 · 0 评论 -
感知机 — Perceptron
感知机翻译 2017-12-24 18:37:51 · 840 阅读 · 0 评论 -
决策树 — Decision Tree
决策树翻译 2017-12-17 16:53:39 · 404 阅读 · 0 评论 -
逻辑回归 — Logistic Regression
逻辑回归翻译 2017-12-07 10:54:30 · 405 阅读 · 0 评论 -
梯度下降 — Gradient Descent
梯度下降翻译 2017-12-03 19:57:37 · 356 阅读 · 0 评论 -
多元线性回归推导 — Multi-Variable Linear Regression Derivation
多元线性回归推导翻译 2017-11-30 11:21:17 · 944 阅读 · 0 评论 -
判定系数推导 — Coefficient of Determination Derivation
判定系数推导翻译 2017-12-01 22:46:37 · 13521 阅读 · 0 评论