t-SNE()函数 参数解释

因为百度了很久没有找的对应的资料,可能是打开方式不对吧,
所以屯给自己看看
顺便分享ohhhhhh
并不全面

TSNE() 参数解释

TSNE即t-distributed Stochastic Neighbor Embedding.使用方法:

    tsne = TSNE(perplexity=30, n_components=2, init='pca', n_iter=5000); plot_only = 500 #只画前500个点
                #对中间层输出进行tsne降维
                low_dim_embs = tsne.fit_transform(flat_representation[:plot_only, :])
                #数据经过tsne以后是二维的  
                #画图传递数据二维的,和真实类别

sklearn.manifold.TSNE函数定义如下:
class sklearn.manifold.TSNE(n_components=2, perplexity=30.0, early_exaggeration=4.0, learning_rate=1000.0, n_iter=1000, n_iter_without_progress=30, min_grad_norm=1e-07, metric=‘euclidean’, init=‘random’,

verbose=0, random_state=None, method=‘barnes_hut’, angle=0.5)
参数:
n_components:int,可选(默认值:2)嵌入式空间的维度。

perplexity:浮点型,可选(默认:30)较大的数据集通常需要更大的perplexity。考虑选择一个介于5和50之间的值。由于t-SNE对这个参数非常不敏感,所以选择并不是非常重要。

early_exaggeration:float,可选(默认值:4.0)这个参数的选择不是非常重要。

learning_rate:float,可选(默认值:1000)学习率可以是一个关键参数。它应该在100到1000之间。如果在初始优化期间成本函数增加,则早期夸大因子或学习率可能太高。如果成本函数陷入局部最小的最小值,则学习速率有时会有所帮助。

n_iter:int,可选(默认值:1000)优化的最大迭代次数。至少应该200。

n_iter_without_progress:int,可选(默认值:30)在我们中止优化之前,没有进展的最大迭代次数。

0.17新版​​功能:参数n_iter_without_progress控制停止条件。

min_grad_norm:float,可选(默认值:1E-7)如果梯度范数低于此阈值,则优化将被中止。

metric:字符串或可迭代的,可选,计算特征数组中实例之间的距离时使用的度量。如果度量标准是字符串,则它必须是scipy.spatial.distance.pdist为其度量标准参数所允许的选项之一,或者是成对列出的度量标准.PAIRWISE_DISTANCE_FUNCTIONS。如果度量是“预先计算的”,则X被假定为距离矩阵。或者,如果度量标准是可调用函数,则会在每对实例(行)上调用它,并记录结果值。可调用应该从X中获取两个数组作为输入,并返回一个表示它们之间距离的值。默认值是“euclidean”,它被解释为欧氏距离的平方。

init:字符串,可选(默认值:“random”)嵌入的初始化。可能的选项是“随机”和“pca”。 PCA初始化不能用于预先计算的距离,并且通常比随机初始化更全局稳定。

random_state:int或RandomState实例或None(默认)
伪随机数发生器种子控制。如果没有,请使用numpy.random单例。请注意,不同的初始化可能会导致成本函数的不同局部最小值。

method:字符串(默认:‘barnes_hut’)
默认情况下,梯度计算算法使用在O(NlogN)时间内运行的Barnes-Hut近似值。 method ='exact’将运行在O(N ^ 2)时间内较慢但精确的算法上。当最近邻的误差需要好于3%时,应该使用精确的算法。但是,确切的方法无法扩展到数百万个示例。0.17新版​​功能:通过Barnes-Hut近似优化方法。

angle:float(默认值:0.5)
仅当method ='barnes_hut’时才使用这是Barnes-Hut T-SNE的速度和准确性之间的折衷。 ‘angle’是从一个点测量的远端节点的角度大小(在[3]中称为theta)。如果此大小低于’角度’,则将其用作其中包含的所有点的汇总节点。该方法对0.2-0.8范围内该参数的变化不太敏感。小于0.2的角度会迅速增加计算时间和角度,因此0.8会快速增加误差。

  • 19
    点赞
  • 58
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
在MATLAB中使用t-SNE函数,需要先安装并加载Machine Learning Toolbox和Statistics and Machine Learning Toolbox。t-SNE(t-Distributed Stochastic Neighbor Embedding)是一种常用的降维和可视化算法,用于将高维数据映射到低维空间,同时保持数据之间的局部结构。 首先,我们需要准备一个数据集,可以是一个矩阵或向量。假设我们有一个名为X的矩阵,其中每行表示一个样本,每列表示一个特征。 接下来,我们可以使用tsne函数来执行t-SNE算法。该函数的基本用法如下: Y = tsne(X) 其中,X是输入的数据矩阵,Y是降维后得到的新矩阵,每行代表一个样本。 除了基本用法,tsne函数还提供了其他可选参数,以便我们根据需要进行自定义设置。例如,我们可以指定降维后的维度数量: Y = tsne(X, 'NumDimensions', 2) 此外,还可以设置Perplexity(困惑度)参数来调整t-SNE算法中的重要参数之一。Perplexity参数的值越大,则相对于局部结构的重视程度越高,需要根据实际情况进行调整。 Y = tsne(X, 'Perplexity', 50) 最后,我们可以使用scatter函数降维后的结果进行可视化,以便更直观地了解数据分布的情况。 scatter(Y(:,1), Y(:,2)) 通过以上步骤,我们就可以使用MATLAB中的t-SNE函数对数据进行降维并得到相应的可视化结果了。当然,根据具体需求,我们可以进一步设置其他参数以及进行数据前处理等操作,以提高降维效果和可视化效果。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值