Python 第三方模块 机器学习 Scikit-Learn模块 有监督学习1 交叉分解,高斯过程,保序回归

本文介绍了Python中Scikit-Learn库的机器学习模块,重点讨论了用于有监督学习的交叉分解、高斯过程和保序回归。在交叉分解部分,概述了其概念和应用;在高斯过程章节,讲解了基本原理及如何使用,并涉及高斯过程核函数;最后,阐述了保序回归的原理和在Scikit-Learn中的实现。
摘要由CSDN通过智能技术生成

一.cross_decomposition
1.简介:

该模块用于进行"交叉分解"(cross decomposition)

2.使用:

"典型相关分析"(Canonical Correlation Analysis;CCA):class sklearn.cross_decomposition.CCA([n_components=2,scale=True,max_iter=500,tol=1e-06,copy=True])
  #参数说明:
	n_components:指定要保留的组件数;int
	scale:指定是否缩放数据;bool
	max_iter:指定NIPALS内部循环的最大迭代次数;int
	tol:指定最小误差(若误差小于该值,则停止);float>=0
	copy:指定是否复制数据;bool

######################################################################################################################

"偏最小二乘"(Partial Least Squares;PLS)转换与回归:class sklearn.cross_decomposition.PLSCanonical([n_components=2,scale=True,algorithm='nipals',max_iter=500,tol=1e-06,copy=True])
  #参数说明:其他参数同class sklearn.cross_decomposition.CCA()
	algorithm:指定用于估计"互协方差矩阵"(cross-covariance matrix)的第1个奇异向量的算法;"nipals"/"svd"

######################################################################################################################

偏最小二乘回归:class sklearn.cross_decomposition.PLSRegression([n_components=2,scale=True,max_iter=500,tol=1e-06,copy=True])
  #参数说明:同class sklearn.cross_decomposition.CCA()

######################################################################################################################

偏最小二乘"奇异值分解"(Singular Value Decomposition;SVD):class sklearn.cross_decomposition.PLSSVD([n_compon
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值