熵繁就简(一)开号缘由

大家好,我是Starz,跟第二栏的小编Jason一样,是一名普通的计算机系学生。开这个号的原因是为了记录些好玩好看的小知识:

目前主要分为两大块:

  1. 《概率图模型》系列

  2. 机器学习和深度学习的小知识

虽然以上内容会涉及到蛮多数学公式,但我们在阐述过程中会尽量做到生动活泼

鉴于两人的水平也有限,有写得不对的地方请大家多多打脸

1 《概率图模型》系列

1.1 概率图讲的啥

概率图模型(PGM)位于统计学和计算机科学的交叉点上,主要涉及了概率论、图算法还有机器学习相关知识。主要应用场景有医疗诊断、图像理解、语音识别和自然语言处理等[1]

PGM是一个内容相当丰富的框架,很多机器学习算法在这个框架的进行推导下显得通俗易懂。对比某些模型,在这个框架下的模型有更强的解释性,使模型更为可靠

img

对于解释性强的模型来说,除了会告诉你它的预测之外,它还会告诉你做出这个预测的理由;为了防止模型瞎猜,更严苛的模型还会要求给出推理过程

计算机视觉里有种任务叫目标识别(其实就是瞅瞅图里有啥),在目标识别这个任务中,有些模型勤勤恳恳,有些模型却整天想着浑水摸鱼

根据W. Samek[2]等人的汇报,在识别图片中是否有马的任务中,第一个模型(中图)将注意力都放在了左下角的水印:

img

放大来看是Pferde fotos,pferde 在德语里是“马匹”,fotos意思是“照片”

img

由此可见,靠谱的模型是多麽可贵

1.2 内容组织

《概率图模型》系列主要是参考来自南特大学Philippe LERAY教授《Probabilistic Graphical Models》的授课内容,内容组织如下:

  • Probability Foundation (1) (jason)

  • Probability Foundation (2) (starz)

  • (Bayesian) Inference (jason)

  • (Bayesian) Parameter Learning (starz)

  • (Bayesian) Structure Learning (jason)

更新周期为每周一更

2 小知识系列

可能涉及的领域:

  1. 本体学习

  2. 知识图谱

  3. 计算机视觉

  4. 自然语言处理

这部分因为是目前在学的东西,分享的形式可能是论文笔记以及模型详解

3 写在后面

为了写一个透彻的小专题,小编往往要参考很多个信源,学习任务也比较繁重,可能更着更着我们就跑路了

但只要还在更新,我们就保证参考资料的透明性,只要是摘抄或翻译的部分我们都会详细标明出处;并且尽量做到少提概念,多聊直观理解

如果对我们的小作坊感兴趣的话不妨扫码关注,谢谢观看

[1]Probabilistic Graphical Models. Stanford University

[2]http://ce.sharif.edu/courses/97-98/1/ce717-1/resources/root/Lecture27/Tutorial-Interpretable-Machine-Learning-NIPS P106

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值