![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
machine learning
wanghailong000
这个作者很懒,什么都没留下…
展开
-
自编码器
自编码器是一种无监督学习的前馈神经网络,网络结构有三层:输入层、隐层和输出层: 如图(图盗的): 其中输入层的神经元个数表示输入数据的维度,输出层的神经元个数表示输出数据的维度,因为自编码器的思想是使得输入等于输出,来进行参数训练,所以输入层的神经元个数等于输出层的神经元个数 训练步骤: (1)初始化每一层的W矩阵和b向量,选择随机梯度下降的学习率,选择神经元转载 2016-11-09 17:45:56 · 392 阅读 · 0 评论 -
阅读资料
http://blog.csdn.net/daunxx/article/details/51725086#最大后验估计 https://mqshen.gitbooks.io/prml/content/Chapter4/bayesian/laplace.html http://blog.sina.com.cn/s/blog_6a72f8250101eln3.html原创 2016-11-28 22:45:41 · 336 阅读 · 0 评论 -
贝叶斯线性回归/贝叶斯脊回归
参考资料: 1、http://blog.csdn.net/daunxx/article/details/51725086 2、http://blog.csdn.net/dark_scope/article/details/8558244 3、http://blog.sina.com.cn/s/blog_6a72f8250101eln3.html转载 2016-11-29 10:27:14 · 2887 阅读 · 0 评论 -
机器学习之最小二乘法
最小二乘法: 我们以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢? 监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,转载 2016-11-14 13:01:27 · 406 阅读 · 0 评论 -
PCA 和 SVD
经常把PCA和SVD搞乱了,而且理解不是特别的深,特此记录,欢迎指正 先扯点线性代数的知识: (1)设M是n阶方阵,如果对任何非零向量z,都有zTMz> 0,其中zT 表示z的转置,就称M正定矩阵。 判定:如果M的特征值全部为正,则M也为正定矩阵。 (2)一个n阶方阵A称为可逆的,或非奇异的,如果存在一个n阶方阵B,使得 并称B是A的一个逆矩阵。不可逆的原创 2016-12-01 13:51:26 · 449 阅读 · 0 评论 -
k-means++
K-Means主要有两个最重大的缺陷——都和初始值有关: K 是事先给定的,这个 K 值的选定是非常难以估计的。很多时候,事先并不知道给定的数据集应该分成多少个类别才最合适。( ISODATA 算法通过类的自动合并和分裂,得到较为合理的类型数目 K) K-Means算法需要用初始随机种子点来搞,这个随机种子点太重要,不同的随机种子点会有得到完全不同的结果。(K-Means++算法转载 2016-12-13 10:24:29 · 462 阅读 · 0 评论 -
TensorFlow简单学习1
使用TensorFlow 构建简单的线性模型,模型使用以及使用tensorboard显示直接上代码:#coding:utf-8 import tensorflow as tf import numpy as np from pip._vendor.requests.sessions import session # create a input placeholder to as a input s原创 2016-12-22 15:22:57 · 327 阅读 · 0 评论