医疗图像分割-无监督学习
文章平均质量分 84
liulilglitter
这个作者很懒,什么都没留下…
展开
-
EM算法3-高斯混合模型的EM算法
在实现了EM算法的感性理解和理论推导之后,可以对经典算法混合高斯模型进行EM算法的求解。高斯混合模型具有如下的概率分布: 其中αk\alpha_kαk>0 并且∑k=1K\sum_{k=1}^K∑k=1Kαk\alpha_kαk=1, 同时有:高斯混合模型可以理解为:一共有K个高斯模型,第k个高斯模型被选中的概率为αk\alpha_kαk。每一次获得观测数据时,首先根据αk\alpha_kαk选择第出一个模型,然后根据第k个模型的高斯分布Φ\PhiΦ(Y|θk\theta_kθk原创 2021-07-21 16:11:52 · 500 阅读 · 1 评论 -
EM算法2-理论证明
在能感性理解EM算法,并且和其理论结合到一起后,我们现在开始学习一下EM算法的理论推导和证明部分,证明的流程主要参考:https://blog.csdn.net/v_july_v/article/details/81708386,非常详细有逻辑首先是我们的目标,在我们求解的时候,会有N个观测变量Y,希望求解的参数为θ\thetaθ,这个时候,最大似然估计告诉我们,求解θ\thetaθ可以最大化下式:但是由于我们现在中间可能有未知环节,无法给出P(Y|θ\thetaθ)的表达式,没办法直接求解,所以引原创 2021-07-20 14:34:45 · 205 阅读 · 0 评论 -
EM算法1-感性地理解EM算法(2)
在感性地理解EM算法1中介绍了一个很普遍的例子讲解EM算法,同时将理论公式具体化,那么下来再讲解一个相对较难的例子,出自李航老师的统计学方法中EM算法的第一个例子,和上一个讲解的方式比较一致:题目为:首先给出一个假设,为了和书上的结果保持一致,我们也假设:π0\pi_0π0=p0p_0p0=q0q_0q0=0.5首先明确此时的隐变量z,z=1表示硬币A是正面,z=0表示硬币A是反面,先明确我们希望最大化的目标:E步,明确我们想要求解的下届函数Q(θ0\theta_0θ0),也就是要求P(原创 2021-07-19 17:30:59 · 149 阅读 · 0 评论 -
EM算法1-感性理解EM算法(1)
讨论到EM算法,纯看公式推导就觉得非常的复杂,其实如果单纯从感性认知的角度,能更好的的了解EM算法。在哔哩哔哩等相关的分享中看到相关的课程学习内容,主要介绍如何感性的认识EM算法,但是他们分享的时候,大多数都是理论和感性认知分开讲的,这篇文章就希望能够在感谢认知的基础上,对应上其理论题推导。下面就根据视频教学里的例子,来介绍一下EM算法的感谢认知。首先介绍了知乎上比较简单明了的一个EM算法入门:如何感性地理解EM算法?具体的例子是:假设现在有两枚硬币1和2,,随机抛掷后正面朝上概率分别为P1,P2。原创 2021-07-19 15:24:08 · 347 阅读 · 0 评论 -
Deep Label Distribution Learning With Label Ambiguity
2017 年Deep Label Distribution Learning With Label Ambiguity精读2021-06-21最近想要做关于semantic segmentation 的 noisy label的学习,先了解了一些比较经典的论文:摘要:在卷积神经网络中,收集足够的训练数据是十分困难的,同时对于年龄检测, 头部姿态检测 和多标签分类等任务,有一些对于人都难以完全区分只能给出大概范围的任务,使得传统的分类问题非常难以解决。为了解决这个问题,这篇论文,将label 变成了 l原创 2021-06-22 14:05:40 · 775 阅读 · 0 评论 -
2018 Anatomical Priors in Convolutional Networks
2018 Anatomical Priors in Convolutional Networks for Unsupervised Biomedical Segmentation-每日论文阅读2021.05.24 工作快三年,越来越脱离学习,开始每日论文阅读,希望两三年之后在无监督图像分割领域,特别是医疗图像领域有一定的了解和建树摘要We consider the problem of segmenting a biomedical image into anatomical regions of i原创 2021-05-28 16:20:51 · 151 阅读 · 0 评论 -
VAE variational autoencoder的理解
2021.05.25 为了无监督学习,学习了一下 VAE模型,主要介绍了 VAE模型cost function的推导和在具体实施的 时候如何计算cost function贝叶斯层面**首先明确VAE的目的:**我们希望得到从输入图片x到隐变量z的概率分布p(z/x),encoder做的事情就是用 q(z/x)去近似p(z/x)那为什么我们要得到p(z/x)呢,因为z中包含了很多我们想要得到的信息,和GMM以及HMM相似,如GMM中q(z/x)表示x属于某个类的概率然后是具体的公式推导那么为了用q(原创 2021-05-25 17:28:43 · 215 阅读 · 0 评论