机器学习
自学Sklearn
JC运
机器学习/python
展开
-
《深度学习2021》——第一节 机器学习基本概念
机器学习的目标RegressionClassificationStuctured LearningMachine Learning <=> Look for functionFunction with unknown parameter (Model)Define loss from train datainput: w,boutput: how good a set of value isOptimization w*, b* = argmin L原创 2021-12-16 19:12:49 · 1023 阅读 · 0 评论 -
常用距离计算
欧氏距离欧氏距离即传统几何距离,考虑两点之间的坐标平方和但欧氏距离面临两个重要问题1、特征单位和尺度不统一的问题2、特征之间可能存在相关关系,即不正交,导致计算的平方和没有意义标准化欧氏距离它通过缩放解决了欧氏距离的第一个问题,即单位和尺度不统一的问题马氏距离它通过缩放和变换解决了欧氏距离的两个问题。变换操作使得特征正交,缩放解决了单位不一致的问题。...原创 2021-12-04 09:09:20 · 1818 阅读 · 0 评论 -
pipeline与make_pipeline
pipeline与make_pipeline唯一的区别就是pipeline需要为转换器和评估器起名字,而make_pipeline自动为转换器和评估器生成名字可以看一下面的例子from sklearn.pipeline import Pipelinefrom sklearn.preprocessing import StandardScalerfrom sklearn.svm import SVCclf1 = Pipeline( [("scale", StadardScaler()),.转载 2021-12-03 11:10:45 · 743 阅读 · 0 评论 -
numpy数组应用小技巧
切片技巧切矩阵与切向量若X为5*2的矩阵,则X [:2] 获得的是前两行的矩阵,X[:2, 0]获得的是前两行第一列的向量原创 2021-11-30 10:38:49 · 1660 阅读 · 0 评论 -
核函数的理解
在低维空间计算高维空间的点积核函数只是一种处理问题的技巧,低维空间线性不可分可以在高维空间线性可分,但是高维空间的计算复杂度又很大,那么我们就把高维空间的计算通过低维空间的计算外加一些线性变换来完成。现在该如何计算映射后的内积呢?传统方法是先计算映射后的向量ϕ(xi)和ϕ(xj),然后再计算它俩的内积。但是这样做计算很复杂,因为映射到高维空间后的数据维度很高。比如,假设xi和xj在映射之后都是一个( 1×10000)维的向量,那么他们的内积计算就需要做10000次加法操作和10000次乘..原创 2021-11-30 09:50:00 · 253 阅读 · 0 评论 -
线性判别分析与主成分分析
成分分析是一种无监督降维,它识别数据差异最大的属性组合线性判别分析是一种有监督降维,它识别在类别上差异最大的属性组合import matplotlib.pyplot as pltfrom sklearn import datasetfrom sklearn.decomposition import PCAfrom sklearn.discriminant_analysis import LinearDiscriminantAnalysis# 加载数据集iris = dataset.lo.原创 2021-11-29 19:46:08 · 1069 阅读 · 0 评论 -
找出误分类点的方法
在二分类时,如何找出0类被误分为1类的点?tp = y == y_predtp0, tp1 = tp[y == 0], tp[y == 1]X0, X1 = X[y == 0], X[y == 1]X0_tp, X0_fp = X0[tp0], X0[~tp0]X1_tp, X1_fp = X1[tp1], X1[~tp1]原创 2021-11-29 11:21:08 · 627 阅读 · 0 评论 -
Numpy中hstack与r_
np.hstack对向量纵向拼接import numpy as npy1 = np.zeros(5)y2 = np.ones(5)np.hstack((y1, y2))return [0,0,0,0,0,1,1,1,1,1]np.hstack对矩阵横向拼接import numpy as npX1 = np.arange(10).reshape(5, 2)X2 = np.arange(10, 20).reshape(5, 2)np.hstack((X1, X2))retur.原创 2021-11-29 11:10:21 · 801 阅读 · 0 评论