![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
ML
Saul Zhang
https://github.com/SaulZhang
展开
-
机器学习-----线性回归浅谈(Linear Regression)
Linear Regreesion 在现实生活中普遍存在着变量之间的关系,有确定的和非确定的。确定关系指的是变量之间可以使用函数关系式表示,还有一种是属于非确定的(相关),比如人的身高和体重,一样的身高体重是不一样的。 线性回归: 1: 函数模型(Model): 假设有训练数据 ...转载 2018-07-06 18:44:30 · 364 阅读 · 0 评论 -
余弦于相似度cos similarity
Motivation 在计算两个特征之间的相似程度的时候经常会用到余弦相似度公式,这个公式以前在高中学过,不高好像已经基本还给老师了,今天再这里补充一下。在NLP中经常需要对特征表征之后的高维向量之间计算相似度,有向量a\mathrm aa和向量b\mathrm bb,a=(x1,x2,...,xn)\mathrm a=(x_1,x_2,...,x_n)a=(x1,x2,...,xn),b...原创 2019-01-20 13:53:03 · 3173 阅读 · 0 评论 -
PCA
PCA的数学公式求解步骤总结 首先明确目的,PCA要做的事情就是,对于样本矩阵XXX(矩阵的形状为m×n,有m个样本,每个样本有n维特征), , 寻求一个变换矩阵D,使得样本矩阵乘上变换矩阵D之后得到G(X) ,即G(X)= XD,G(X)为样本矩阵X的低维表征,所以PCA所做的的事情概括起来就是,在不损失大量信息的前提下,采用更少的特征维度(p<n)来表征样本,从而起到压缩数据的降维作用...原创 2019-05-04 15:55:10 · 288 阅读 · 0 评论