skleran
zcc_TPJH
I can fly high, I can go low!
展开
-
线性回归---sklearn+python实现
简单线性回归问题思想回到正题,对于简单线性回归有如下问题:下面通过程序来实现简单的线性回归:import numpy as npimport matplotlib.pyplot as pltx=np.array([1,2,3,4,5])y=np.array([1,3,2,3,5])plt.scatter(x,y)x_mean=np.mean(x)y_mean=np.mean(y)up...原创 2018-05-25 11:53:46 · 2016 阅读 · 0 评论 -
实验楼机器学习挑战赛-----线性回归拟合并绘图
def linear_plot(): import numpy as np import matplotlib.pyplot as plt from sklearn.linear_model import LinearRegression data = [[5.06, 5.79], [4.92, 6.61], [4.67, 5.48], [4.54, 6.11], ...原创 2018-05-25 17:01:17 · 714 阅读 · 0 评论 -
K最近邻算法(KNN)---sklearn+python实现
k-近邻算法概述简单地说,k近邻算法采用测量不同特征值之间的距离方法进行分类。k-近邻算法优点:精度高、对异常值不敏感、无数据输入假定。缺点:计算复杂度高、空间复杂度高。 适用数据范围:数值型和标称型。 k-近邻算法(kNN),它的工作原理是:存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将...原创 2018-05-23 16:50:10 · 43992 阅读 · 1 评论 -
主成分分析PCA+编程实现
主成分分析一个非监督的机器学习算法主要用于数据的降维通过降维,可以发现更便于人类理解的特征其他应用:可视化,去噪PCA优缺点优点:降低数据的复杂性,识别最重要的多个特征缺点:不一定需要,且可能损失有用信息使用数据类型:数值型数据举个例子理解一下,二维空间上有一些样本点如下,将二维降维至一维:原始样本点(二维)映射到特征1上映射到特征2上从图中可以看到,将样本点映射到特征1这种方案感觉会好一些,因为...原创 2018-06-25 17:16:47 · 1355 阅读 · 1 评论