漫谈机器学习
广告与算法
广告算法工程师,写些互联网广告的那些事儿
展开
-
【漫谈机器学习】-前言
漫谈机器学习-前言2016年的校招已经过去了,我也找到了比较满意的工作,一想起自己即将走进机器学习研究和应用做的相当出色的公司,感觉自己的压力倍增,很多知识还不熟悉。记得之前看博客上说,写博客是最好的学习方式。自己在学习过程中看了很多不错的博客,如结构之法,算法之道等知名博客,这些博客引导我走进互联网,走进机器学习。因此,今天我也开始记录自己的学习,漫谈机器学习。一切还是要从 y=kx+by=kx+原创 2015-12-28 20:34:17 · 537 阅读 · 0 评论 -
【漫谈机器学习】1.误差最小VS概率最大(1)
机器学习经常做的事情是拟合和分类 ,其中线性回归是最简单的机器学习问题了,因此,从线性回归说起了,在这里先说两个有意思的方法,误差最小VS概率最大,不好意思,受骗了,这绝对不是漫谈,而是开始累公式了,哈哈。提出问题现在有样本集合:{(xi,yi)}mi=1\left\{ {\left( {{x_i},{y_i}} \right)} \right\}_{i = 1}^m,其中: 输入为:xi∈Rn,x原创 2015-12-28 21:51:36 · 1278 阅读 · 0 评论 -
【漫谈机器学习】1.误差最小VS概率最大(2)
极大似然估计概率最大的角度考虑问题就是极大似然估计了,基本思想是:maxP(yi|xi,θ)\max P\left( {{y_i}\left| {{x_i},\theta } \right.} \right),这里可以理解为:如果假设 yy 服从某一分布,那么就求使得已知样本 (xi,yi)\left( {{x_i},{y_i}} \right)中的yiy_i最大概率服从该分布的θ^\hat \th原创 2015-12-28 22:54:35 · 841 阅读 · 0 评论 -
【漫谈机器学习】1.误差做小VS概率概率最大(3)
遇到新问题到目前为止,至少有几个问题需要解决: 如果解析解求不出来怎么办?答案是:迭代搜索求解(最优化问题) 如果样本数量特别大,怎么处理?答案是:递推求解(在线学习优化问题) 如果误差不是正态分布该怎么办呢?答案是:广义线性回归 如果这个矩阵(XXT)−1{\left( {X{X^T}} \right)^{ - 1}}的维度特别大,怎么处理?答案是:数据降维 如果模型是非线性的话,怎么处理呢?答案原创 2015-12-28 23:02:44 · 554 阅读 · 0 评论