机器学习
文章平均质量分 70
Echo0713
机器学习
展开
-
PCA Whitening ZCA Whitening
本篇文章主要内容来自于Andrew的书,链接为http://ufldl.stanford.edu/tutorial/unsupervised/PCAWhitening/PCAPCA也就是主成分分析,是用来降维的一种手段,它可以显著地提高算法的运行速度。 当你在处理图像的时候,输入通常是冗余的,这是因为图像中相邻的像素点往往是关联的,PCA可以用来将图像的原始输入近似为一个更低维度的输入,并且保证误原创 2017-06-16 11:07:11 · 886 阅读 · 0 评论 -
Sparse Coding 稀疏编码
稀疏编码是无监督学习的一种,它学习一组超完备基的集合用以高效地表示数据,即 x=∑i=1kaiϕi\begin{align}\mathbf{x} = \sum_{i=1}^k a_i \mathbf{\phi}_{i} \end{align} 稀疏编码就是要找到基向量ϕi。虽然PCA等技术可以让我们高效地找到基向量,但我们希望可以找到基向量的超完备集(over-complete)来表示输入向翻译 2017-06-16 17:50:25 · 1681 阅读 · 0 评论 -
神经网络的可视化
写在前面: 好久没有学习深度学习相关知识了,这几天觉得虽然现在工作跟深度学习无关,可是还是要继续下去,所以还是把最近学习的一些内容总结一下,不一定严谨,只是希望自己可以借此好好整理整理思路。我们在训练神经网络的时候,需要调节大量的参数,神经网络的可视化对于调整参数有着很好的指导作用。什么是可视化呢,先举一个简单的例子。 我们可以直接看第一层的feature map来观察神经网络是否取得了较好的效原创 2017-06-23 21:09:02 · 6224 阅读 · 0 评论 -
scikit-learn中几种regression算法
之前学machine learning只用到了最小平方回归法,或者是加上regularization(L1和L2),最近在学scikit-learn,发现里面提供了很多种回归算法。在学习时稍微总结了下。1. Ordinary Least Squares最小二乘法2. Ridge Regression其实就是加上了L2 regularization scikit-learn不仅提供了Ridge(原创 2017-06-12 18:08:15 · 2466 阅读 · 0 评论 -
Lecture4: Supervised Machine Learning - Part2
Naive Bayes Classifier Naive Bayes假设给定一类,模型中的特征都是独立于其他特征存在的,这样,运算速度会非常快,但是范化能力会比较差。 实际上,这个假设通常是不成立的,但并不影响使用。通常适用于高维数据随机森林 以随机的方式建立一个森林,里面有多颗较为简单的决策树,将这些决策树结合起来,会产生非常好的效果。Neural network 这一部分就不多说了原创 2017-07-15 09:07:07 · 390 阅读 · 0 评论