深度学习
文章平均质量分 67
讲解深度学习基础知识
James_ZHAAO
北邮在读
展开
-
怎么理解最大后验估计(Maximum A Posteriori, MAP)
本文是从一个小白的角度来解读最大后验估计(MAP), 以及解释MAP和MLE(最大似然估计)的区别关于如何解读MLE,请阅读我的上一篇文章:怎么理解最大似然估计(Maximum Likelihood Estimation, MLE)-CSDN博客。原创 2024-08-27 22:07:13 · 785 阅读 · 0 评论 -
怎么理解最大似然估计(Maximum Likelihood Estimation, MLE)
先说定义,MLE指的是,找到能够使得定义的模型,观测到我们想要观测的事件的概率最大化,的参数也就是说,我们终极目标使找到合适的模型参数,在此之前我们要明确想要观测的事件,以及选定模型可以通过两个简单的例子来帮助理解。原创 2024-08-21 23:34:02 · 368 阅读 · 0 评论 -
如何理解深度学习中的Embeddings(嵌入)
作为一名小白,在学习深度学习中经常看到一个词叫做嵌入(Embeddings), 一直很难理解,直到读到了邱锡鹏教授的《神经网络与深度学习》一书,让我有了比较直白的理解。分享给各位。原创 2024-08-21 09:53:44 · 325 阅读 · 0 评论 -
优化问题中的凸函数
但我们在实际情况下却并不常使用这个作为我们的loss function, 这是因为当我们想要让逻辑回归方程里的参数进行学习的时候,当考虑优化问题时,会发现变成了非凸问题(non-convex problem): 即出现了多个local optima, 无法找到global optima。然而,当损失函数是非凸函数时,由于存在多个局部最小值,找到全局最小值变得更具挑战性。并且,二阶可导的一元函数f为凸函数,当且仅当他的二阶导数f''在定义域上是非负的。原创 2023-09-15 22:47:44 · 57 阅读 · 1 评论