机器学习
文章平均质量分 71
All_Will_Be_Fine噻
所有事物的最终都是美好的,如果不好那就是还没到最后。
展开
-
前向反馈神经网络 -- FNN
神经细胞的树突接受外部信号,细胞体整合这些信号,有些是刺激信号有些是抑制信号,整合后得到一个一般性的信号,如果这个信号强度大则通过轴突往外部传递,如果这个信号强度小则忽略这个信号。这种弹性对于成功的机器学习是重要的。神经细胞组成了人体的反射弧,那么感知器组成了机器的反射弧,从而实现对一些信息(带有特征信息的样本)做出拟人化智能化的反应:分类,预测,排序,回归等。几乎所有的非线性函数都可以充当激活函数, 尽管如此, 对前向传播算法而言, 激活函数必须是可微的, 如果是有界函数, 将会更有帮助。原创 2023-11-23 09:28:01 · 250 阅读 · 0 评论 -
logistics regression + LDA + QDA + MARS
【代码】logistics regression + LDA + QDA + MARS。原创 2023-06-20 16:20:07 · 186 阅读 · 0 评论 -
R -- loess函数
如果是OLS的话每个数据点的权重是一样的 ,但是现在进行拟合时我们要给每个数据点不一样的权重,使得 x的权重最大(这样就会出现x 对线性拟合的影响最大),距离 x 第一近的 数据点权重第二大,依此类推。其中 span 控制 windows大小,小于1是表示windows占数据点的百分比,大于1表示windows包含所有数据点,有人这样子想了,先把数据分段,然后每段数据内拟合,然后再连接拟合线,当你把数据分段约小,拟合线越平滑。然后计算离他最近的四个点(我们选取的windows = 5),进行线性拟合。原创 2023-06-09 16:28:58 · 3862 阅读 · 0 评论 -
简单线性线性回归
观测值y是一个随机变量,y的总变异y - mean(y) 可以分解为两部分,第一部分是自变量x变异引起的变异 回归值Y - mean(y),第二部分是误差所引起的变异 y - Y。这里主要记录了一元直线回归分析的学习记录,包括前提假设,数学方程式,评价拟合有度,假设检验,模型应用。x的离均差与y的离均差乘积之和 sum[( x - mean(x)) (y - mean(y))] 记为SP。观测值y和回归值Y的残差平方和( RSS)等于 sum( (y。x的离均差的平方和sum[(x - mean(x))原创 2023-05-18 15:03:55 · 806 阅读 · 1 评论 -
R -- 二分类问题的分类+预测
分类大致分为有监督分类和无监督分类,这里学习有监督分类。有监督分类一般包括逻辑回归、决策树、随机森林、支持向量机、神经网络等。有监督学习基于一组包含预测变量值和输出变量值的样本单元。然后可以将全部数据分为一个训练数据集和一个验证数据集,其中训练数据集用于建立预测模型,验证数据集用于测试模型的准确性。这里将通过 rpart、rpart.plot和party包实现决策树模型和可视化通过randomForest包拟合随机森林通过e1071包构造支持向量机通过glm函数实现逻辑回归。原创 2023-04-15 15:50:58 · 2873 阅读 · 1 评论 -
Mean shift
Mean shift通俗点说,该算法可以在一堆样品数据中找到密度均一且相互靠近的数据。也可以理解为在一个给定区域寻找中心点的计算过程。例如:中心点寻找过程中迭代了 t 次,此时的中心点 xi 向xi+1移动时有一个移动向量m(xi),当这个m(xi)改变不明显时终止迭代。Given a candidate centroid for iteration , the candidate is updated according to the following equation:Where is翻译 2022-03-01 16:32:14 · 62 阅读 · 0 评论 -
无监督聚类 -- Affinity Propagation
无监督聚类 – Affinity Propagation作者:钱魏Waycopy地址:https://www.biaodianfu.com/affinity-propagationap.htmlAP(Affinity Propagation)通常被翻译为近邻传播算法或者亲和力传播算法。AP算法的基本思想是将全部数据点都当作潜在的聚类中心(称之为exemplar),然后数据点两两之间连线构成一个网络(相似度矩阵),再通过网络中各条边的消息(responsibility和availability)传递计算转载 2022-02-25 16:23:30 · 1071 阅读 · 0 评论 -
无监督聚类 -- Kmeans
无监督聚类 – K-meansKmeans将数据划分为几个等方差的类,并且使类内方差最小(minimizing a criterion known as the inertia or within-cluster sum-of-squares),类间方差最大。算法大致步骤(摘自 https://zhuanlan.zhihu.com/p/78798251?utm_source=qq):1.选择初始化的 k 个样本作为初始聚类中心 ;2.针对数据集中每个样本 计算它到 k 个聚类中心的距离并将其分到距转载 2022-02-25 16:18:39 · 1015 阅读 · 0 评论 -
方差和标准差
方差和标准差原创 2022-02-25 11:11:06 · 1047 阅读 · 0 评论 -
协方差与皮尔森相关性系数
协方差定义随机变量X、Y 的协方差Cov(X,Y):Cov(X,Y) = E[(X-E(X))(Y-E(Y))] = E[XY] - E[Y]E[X]从直观上来看,协方差表示的是两个变量总体误差的期望。意义表示两个变量的变化趋势一致性大小。如果X与Y是统计独立的,那么二者之间的协方差就是0。但是,反过来并不成立。即如果X与Y的协方差为0,二者并不一定是统计独立的。相关性系数是归一化后的协方差:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(im原创 2022-02-23 18:22:17 · 240 阅读 · 0 评论 -
EDA -- 初试
EDA of data of Irisimport numpy as npimport pandas as pdimport matplotlib.pyplot as pltimport seaborn as snsfrom sklearn.datasets import load_iris #导入演示数据 from sklearn.decomposition import PCAfrom sklearn.model_selection import train_test_split #分割测原创 2021-12-20 16:43:55 · 219 阅读 · 0 评论 -
KNN -- 初步学习
# KNNfrom sklearn.datasets import load_irisiris = load_iris()x = iris.datay = iris.targettype(x)numpy.ndarraytype(y)numpy.ndarrayfrom sklearn.model_selection import train_test_splitx_train,x_test,y_train,y_test = train_test_split(x,y,test_原创 2021-12-20 16:39:58 · 365 阅读 · 0 评论 -
相关性系数与协方差
协方差公式描述:如果有两个变量X,Y,每个时刻的X值与均值μX之差乘上每个时刻的Y值与均值μY,将会得到一个乘积,将所有时刻的乘积相加,然后求取均值,即为变量X与Y协方差。如何理解协方差:两个变量在变化过程中是同向变化还是反向变化?如果协方差是正的,则表明两个变量同向变化,即X变大时,Y也变大如果协方差为负,则表明两个变量反向变化,即X变大时,Y变小(这些都是不绝对事件,是大概率事件)需要注意的是:协方差数值的大小表示不了变化程度相似性的大小相关性系数公式描述:协方差除以X、Y的标..原创 2021-12-20 10:34:46 · 263 阅读 · 0 评论 -
获取混淆矩阵
二分类二分类比较简单,所以我们先来分析一下二分类的情况。我们利用 sklearn中的 confusion_matrix 函数来得到混淆矩阵,函数原型为:sklearn.metrics.confusion_matrix(y_true, y_pred, labels=None, sample_weight=None)y_true:样本真实的分类标签列表y_pred:样本预测的分类结果列表labels:类别列表,可用于对类别重新排序或选择类别子集。默认,则将y_true 或y_pred 中至少出现转载 2021-11-24 15:36:24 · 1243 阅读 · 0 评论 -
简单理解混淆矩阵
1、混淆矩阵可以用来总结一个分类器结果的矩阵。对于k元分类,其实它就是一个k x k的表格,用来记录分类器的预测结果。对于最常见的二元分类来说,它的混淆矩阵是2乘2的,如下#这个图戳中笑点了(https://zhuanlan.zhihu.com/p/42475636)TP == True Postive ==真阳性 :样本的真实类别是正例,并且模型预测的结果也是正例FP = = False Positive == 假阳性 :样本的真实类别是负例,但是模型将其预测成为正例FN == False原创 2021-11-24 14:20:25 · 3314 阅读 · 0 评论