机器学习
weixin_45963617
这个作者很懒,什么都没留下…
展开
-
深度学习中:epoch、batch size和iterations之间的关系
在深度学习中,epoch、batchsize和iterations是在训练模型时,一定用到的一些概念。那么分别是什么意思呢? 首先,为什么会用到以上概念,是因为“梯度下降”,也就是寻求曲线的一个最小值。其次,梯度下降是迭代的,它是一个需要多次计算的结果来求得最优解。 1,epoch 一个epoch指代所有的数据送入网络中完成一次前向计算及反向传播的过程。在训练模型时,一般会设置多个epoch,比如epoch=50、100、600,甚至等于6000。这么做是因为在寻求最优解时,将数据送入网络进行一次迭代是不够转载 2020-12-24 10:23:22 · 150 阅读 · 0 评论 -
多模态机器学习简介
多模态机器学习简介原创 2020-09-29 15:34:28 · 256 阅读 · 0 评论 -
西瓜书:PCA数学推导
一、PCA降维过程 只需对协方差矩阵X*transpose(X)进行特征值分解,将求得的特征值排序:λ1>=λ2>=…>=λd,再取前d’个特征值对应的特征向量构成W=(w1,w2,…,wd’),这就是PCA的解。 西瓜书中的PCA算法如下: 需要说明的是,算法中的向量为列向量。假设原始维度为d,样本数目为m,因此特征矩阵X的维度为d×m,W的维度为d×d’。降维的时候,transpose(W)*X得到 d’×m的矩阵,它的每一列,即为降维后的向量。 二、PCA优化目标与求解 1.PCA转载 2020-07-18 11:28:50 · 537 阅读 · 0 评论