![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 81
微微心情smile
I have a dream!
展开
-
深度学习--花书 第2章
第2章介绍的是线性代数,记录一些课本里对一些知识点没有掌握的新视角和忘记的知识。 1. 张量: A tensor is something that transforms like a tensor! 一个量, 在不同的参考系下按照某种特定的法则进行变换, 就是张量。 2. 两矩阵相加为对应元素相加。 3. Hadamard乘积(元素对应乘积):两个矩阵中对应元素的乘积。 4. 生成子空间原创 2017-09-04 20:18:43 · 674 阅读 · 0 评论 -
特征分解、奇异值分解、PCA(个人理解)
矩阵分解是提取该矩阵内部一些特征的过程。在自然语言处理中,特征分解出一个任务矩阵的特征值和特征向量,其中某一特征向量是该任务的某一特征,相对应的特征值变为此特征的重要性程度或者其他数字化指标。奇异值分解、PCA都是提取任务对应特征的一个方法,而现在使用神经网络来提取特征,其实道理都差不多只不过换了一种方式。特征分解 性质:1 只有可对角化矩阵才可以特征分解。原创 2017-09-05 10:16:45 · 738 阅读 · 0 评论 -
VAE学习之路
VAE学习之路主要的论文Auto-Encoding Variational Bayes.论文下载地址:http://arxiv.org/abs/1312.6114“该论文提出一个融合变分贝叶斯(Variational Bayes)方法和神经网络的方法,这个方法可以用来构造生成模型的自编码器。”这句话中提到–变分贝叶斯,先解释一下什么事变分贝叶斯。变分贝叶斯贝叶斯先验分布、后验分布、似然函数、贝叶斯公原创 2017-10-08 11:13:20 · 1158 阅读 · 0 评论 -
tensorflow里面共享变量、name_scope, variable_scope等如何理解
tensorflow里面共享变量、name_scope, variable_scope等如何理解name_scope, variable_scope目的:1 减少训练参数的个数。 2 区别同名变量为什么要共享变量?我举个简单的例子:例如,当我们研究生成对抗网络GAN的时候,判别器的任务是,如果接收到的是生成器生成的图像,判别器就尝试优化自己的网络结构来使自己输出0,如果接收到的是来自真实数据的图原创 2017-10-16 10:39:02 · 4265 阅读 · 0 评论