![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习笔记
Victor_Gui
这个作者很懒,什么都没留下…
展开
-
参数学习方法和非参数学习的区别
参数学习方法:在训练完成所有数据后得到一系列训练参数,然后根据训练参数来预测新样本的值,这时不再依赖之前的训练数据了,参数值是确定的。而非参数学习方法是:在预测新样本值时候每次都会重新训练数据得到新的参数值,也就是说每次预测新样本都会依赖训练数据集合,所以每次得到的参数值是不确定的。例如局部加权回归(LWR)就是非参数学习方法。reference:https://blog.csdn.net/q...原创 2019-03-01 11:02:59 · 4196 阅读 · 0 评论 -
高斯判别模型(GDA)以及参数的最大似然估计详细推导
Reference:https://blog.csdn.net/z_feng12489/article/details/81086183转载 2019-03-02 10:34:37 · 2029 阅读 · 0 评论 -
PCA对列数或者行数的降维与SVD分解中的U与V的关系
PCA仅仅使用了SVD的右奇异矩阵V,PCA的前k个特征向量就是V的前k列,没有使用左奇异矩阵。而左奇异矩阵可以用于行数的压缩,右奇异矩阵可以用于列数降维。...原创 2019-03-08 10:31:47 · 1203 阅读 · 0 评论 -
卷积网络中的可学习参数有哪些?
(1)卷积层卷积层的参数就是卷积核的总数加上偏置数,例如一个14* 14* 6 (6为通道数)的特征图,经过5* 5* 16的卷积核,那么这层的参数为5* 5* 16* 6+16=2416个参数(注意要乘上一层的通道数)。(2)池化层池化层很有意思的特点就是,它有一组超参数,但并没有参数需要学习。实际上,梯度下降没有什么可学的,一旦确定了kernel的stride,它就是一个固定运算,梯度下...原创 2019-04-16 10:08:25 · 3295 阅读 · 1 评论 -
torch.nn.Embedding(num_embeddings, embedding_dim)的理解
torch.nn.Embedding(num_embeddings, embedding_dim)这个语句是创建一个词嵌入模型,num_embeddings代表一共有多少个词,embedding_dim代表你想要为每个词创建一个多少维的向量来表示它,直接上例子:import torchfrom torch import nnembedding = nn.Embedding(5, 4) #...原创 2019-05-16 14:56:37 · 13903 阅读 · 4 评论