- 博客(7)
- 资源 (1)
- 收藏
- 关注
原创 【学习笔记】斯坦福大学公开课(机器学习) 之广义线性模型
广义线性模型(GLM)是在指数分布族基础上形成的模型,对于指数分布族中,参数η\eta都可以有其他对应函数来替代,从而得到指数分布族模型的扩展。为引入GLM来解决问题,我们做三个假设: 1.y|x;θ∼ExponentialFamily(η)y|x;\theta∼ExponentialFamily(\eta),即已知x和θx和\theta,yy的分布满足参数为η\eta的指数分布族。 2.假设函
2017-04-17 17:48:37 417
原创 【学习笔记】Dockerfile指令--参考手册学习总结
Dockerfile是docker用于构建image的文件。当执行 docker build 指令时,docker会根据Dockerfile和上下文(context)来执行构建image的命令。简单总结下各个指令的意义,遗忘时可以查看。
2017-04-14 14:30:15 608
原创 【学习笔记】斯坦福大学公开课(机器学习)之指数分布族
可以写出下式形式的分布,都属于指数分布族: p(y;η)=b(y)exp(ηTT(y)−a(η))(1)p(y;\eta)=b(y)exp(\eta^TT(y)-a(\eta))\tag{1} 其中η\eta称为自然参数(natural parameter),T(y)T(y)称为充分统计量(通常情况下T(y)=yT(y)=y),a(η)a(\eta)称为日志配分函数(log partition
2017-04-13 09:46:23 1940
原创 【积累系列】E: Sub-process /usr/bin/dpkg returned an error code (1) 解决方法
E: Sub-process /usr/bin/dpkg returned an error code (1) 解决方法
2017-04-12 14:23:50 748
原创 【学习笔记】斯坦福大学公开课(机器学习) 之逻辑斯蒂回归(续)
对于逻辑斯蒂回归中,还有另一种最大化l(θ)l(\theta)的算法——牛顿方法。
2017-04-11 14:52:51 457
原创 【学习笔记】斯坦福大学公开课(机器学习)题外篇:感知机学习算法
我们考虑把逻辑回归中,模型的输出严格固定为1或者0,即把g(z)g(z)(逻辑函数)改写为阈函数: g(z)={10z≥0z0g(z)=\begin{cases}1& z \geq 0\\0& z<0\\\end{cases} 我们让假设函数hθ(x)=g(θTx)h_\theta(x)=g(\theta^Tx),根据之前的算法,我们把参数更新方法写为: θj:=θj+
2017-04-10 16:51:39 377
原创 【学习笔记】斯坦福大学公开课(机器学习) 之逻辑斯蒂回归
如果在遇到一些分类问题,用回归算法来做预测时,我们会发现这些算法得出的模型会不尽人意。甚至在一些很明显的情况下,函数值不会比1大或者比0小,即目标值y∈{0,1}y\in\{0,1\}。 针对这种情况,我们改变假设函数hθ(x)h_{\theta}(x),把假设函数写成如下模型。
2017-04-07 14:55:45 480
斯坦福机器学习公开课讲义
2017-03-03
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人