自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 PRML Ch3: Linear Models For Regression 线性回归模型

统计角度的线性回归模型统计角度的线性回归模型可以从第一章的决策轮一节中的loss function for regression讲起,当我们有关于回归目标tt的条件分布p(t|x)p(t|x)时,如果选取L2 loss为loss function,那么通过变分的方法最小化期望误差,可以得出我们的回归函数应该为Et[t|x]E_{t}[t|x]即概率分布P(t|x)P(t|x)关于$t¥

2016-05-28 11:12:17 500

原创 PRML Ch2: Probability Distributions 机器学习的概率基础

PRML的第二章介绍了几种机器学习,特别是贝叶斯学派机器学习中常用的概率分布

2016-05-18 23:46:51 576

原创 如何处理variational caculas(变分)

PRML的第一章在两个地方使用到了变分,对于之前没接触过变分的学渣会产生很大的恐惧感。而且PRML附录里对变分的介绍也让人看得云里雾里。在实验室的一名贝叶斯学派新秀的指导下,这里总结一种简单的处理变分优化的方法,来解决第一章遇到的两个问题。1.5.5 Loss functions for regression这节介绍了回归问题的代价函数,广义的回归问题损失函数定义为:

2016-05-16 10:41:22 993 1

原创 PRML Ch 1: Introduction 从概率论、决策论和信息论的角度来看机器学习

Chapter 1: Introduction 从概率论、决策论和信息论的角度来看机器学习1. Probability Theory

2016-04-25 12:46:10 1354

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除