统计学习方法
flying_coder
graph representation learning、Anomaly Detection, Graph Prompt Learning, Graph Foundation Model
展开
-
VAE方法新理解
关于变分自编码器 ,在给师兄讲解的过程中,发现了自己理解的偏差,首先明确一点VAE本身不是从AE联想过来的,AE的过程本身是对输入信息x的一个提取,每一个x会对应提取的一个特征z,根据这个特征z经过解码器有能够得到还原后的x'。这个地方不应该从概率的角度去理解,而应该从变换的角度去理解,相当于是对输入x学习了一个变换,从而提取x的信息,并对信息进行了一个解码。针对于VAE的思路,他的源论文是《Auto-EncodingVariationalBayes》。源论文的直观意思并不是变分自编码器,变分自...原创 2020-12-27 18:21:48 · 809 阅读 · 0 评论 -
VAE-变分自编码器-Auto-Encoding Variational Bayes-详细推导
mac太难了,我想把我写好的word复制粘贴,一复制电脑就死机 炸裂,大家凑合看看图片吧,word可以看我的资源中心原创 2020-12-24 14:49:04 · 398 阅读 · 0 评论 -
Hierarchical Softmax、CBOW词带模型抽象化及其公式推理以及python代码实现包括注释
接下来是我的详细的推倒过程原创 2020-07-27 19:12:00 · 608 阅读 · 0 评论 -
CNN卷积神经网络之卷积运算的初步理解
上述的卷积方式是带有反转的卷积,而不带反转的卷积操作称为互相关卷积,在进行卷积的过程中需要指明属于哪一种卷积。对于5.6式子中,如果i,j分别取1,很明显会出现x取到-1位置的情况,我个人理解是可能这个时候的卷积就属于无效卷积了,因为此时以x1,1为中心,前面和上面都是不存在的,只有当i,j同时取3的时候,也就是卷积的中心在第二行第二列的0的时候才开始具有意义。因此来说5.6式应该还需要加上i,j都必须要≥3才可以,也就是一个为了将二维卷积写成数学式的一种妥协。因为懒得打字了,所以索性直接将...原创 2020-06-23 17:47:18 · 345 阅读 · 0 评论 -
EM算法详细推导
些东西,大家可以互相交流。在看代码的过程中,发现EM算法的了解不是很透彻,又回头来手动推导了一遍EM算法,算是一个补充吧。如果不需要了解具体细节,可以看我之前这篇文章:https://blog.csdn.net/weixin_38206214/article/details/81064625一、前言EM算法即期望最大化(Expection Maximization)算法。是一种迭代算法...转载 2020-01-14 21:06:57 · 339 阅读 · 0 评论 -
EM算法——解释 转载
转载 2020-01-14 08:47:12 · 167 阅读 · 0 评论