2020/01/04学习笔记(《META-NAS》论文阅读的预备知识……)

一、 maximum log-likelihood estimation最大log似然估计的概念

具体参考博文:https://towardsdatascience.com/probability-concepts-explained-maximum-likelihood-estimation-c7b4342fdbb1

要点

1、为什么叫最大似然估计而不是最大似然概率?——答:理解下面这张图,因为虽然“the probability density of the data given the parameters【右式】”等价于“the likelihood of the parameters given the data【左式】”,但是左式要求的是参数,右式要求的是数据,此处我们要求参数,因此叫likelihood.

2、为什么要引入log?——答:因为引入log之后,对乘或者除的求导,可以转化成对加和减的求导,求导更加方便。

3、什么是参数?——答:parameters define a blueprint for the model. It is only when specific values are chosen for the parameters that we get an instantiation for the model that describes a given phenomenon.

4、Intuitive explanation of maximum likelihood estimation?——答:Maximum likelihood estimation is a method that determines values for the parameters of a model. The parameter values are found such that they maximise the likelihood that the process described by the model produced the data that were actually observed.

二、KL-divergence KL散度的概念

参考博文:https://towardsdatascience.com/light-on-math-machine-learning-intuitive-guide-to-understanding-kl-divergence-2b382ca2b2a8

定义

三、Jensen不等式

参考博文:https://blog.csdn.net/baidu_38172402/article/details/89090383
注意可以由两点推广到面,甚至是积分。【假设推断法证明】
在这里插入图片描述

四、贝叶斯公式分解

ATTENTION!:注意“猫分类器”和“猫图像生成器”之间的区别。“猫图像生成器”的输出应该是猫的图像。而“猫分类器”输出一个0~1的数值,对应分类为猫的概率。
在这里插入图片描述

四、变分贝叶斯

https://www.jianshu.com/p/86c5d1e1ef93

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值