自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 统计学3

正态分布 这一节我们将讲统计学中最重要的概念,甚至是任何科学领域中最重要的概念,因为它在生活中无处不在,就是正态分布,或者叫高斯分布或钟形曲线。使用Excel可以说明,二项分布在试验次数足够时会很接近正态分布。从图中可以看出均值为100*0.3=30。注意K=60~100概率极低但也不为0。 正态分布的概率密度函数图像 概率密度函数f(x)=12π√σe−12(x−μσ)2f(x)=\frac

2016-11-29 10:17:04 676

原创 线性代数学习笔记7

第二十六集  对称矩阵及正定性对称矩阵 对称矩阵A=ATA=A^{T} 的特征值为实数,具有完全正交的特征向量。 这里的“有”,是指可以选出一套完全正交的特征向量。通常情况下,如果特征值互不相同,那么每个特征值的特征向量是在一条线上(特征向量空间是一维的),那些线是垂直的。但是如果特征值重复,那就有一整个平面的特征向量,在那个平面上,我们可以选择垂直的向量(比如单位矩阵)。 如果A 具有n 个

2016-11-27 16:43:36 2042

原创 线性代数学习笔记6

第二十一集  特征值和特征向量 围绕特征值和特征向量的议题下讨论得都是方阵。 将矩阵A 与向量x 相乘当做是对向量的一种操作或者函数,输入x 而输出Ax。 特征向量即在特定的向量x 方向上输出的Ax 平行于x,即为: Ax=λxAx=\lambda x 其中x为矩阵A 的特征向量,而λ\lambda 为A 的特征值。 例1:矩阵P是朝向某平面的投影矩阵。P将向量b 投影到它距离平面最近的

2016-11-25 18:21:40 2821

原创 线性代数学习笔记4

第十四集  正交向量与正交子空间 正交向量 正交就是垂直的另一种说法。两向量正交则xTy=yTx=0x^{T}y=y^{T}x=0。当两个向量的夹角为90 度时,按照勾股定理x,y 满足: 零向量与所有向量都正交。 正交子空间 子空间S 与子空间T 正交,则S 中的任意一个向量都和T 中的任意向量正交。 黑板所在的平面和地板所在平面不是正交关系。比如平面的子空间包括只包含零向量的

2016-11-23 19:23:41 1394

原创 线性代数学习笔记3

第五集  向量空间 我们可以对向量进行所谓“线性运算”,即通过加和(v+w)与数乘运算(3v)得到向量的线性组合。向量空间对线性运算封闭,即空间内向量进行线性运算得到的向量仍在空间之内。 包含于向量空间之内的一个向量空间称为原向量空间的一个子空间。 R2R^{2} 中不穿过原点的直线就不是向量空间。子空间必须包含零向量,原因就是数乘0 的到的零向量必须处于子空间中。 R2R^{2} 的子空间

2016-11-22 22:03:03 3290

原创 线性代数学习笔记2

第二集  矩阵消元 《A_b》 高斯消元法通过对方程组中的某两个方程进行适当的数乘和加和,以达到将某一未知数系数变为零,从而削减未知数个数的目的。 《A高斯消元》 矩阵A 为可逆矩阵,消元结束后得到上三角阵U,其左侧下半部分的元素均为0,而主元1,2,5 分列在U 的对角线上。主元之积即行列式的值。 需要说明的是,主元不能为0,如果恰好消元至某行,0 出现在了主元的位置上,应当通过与下方

2016-11-19 09:53:03 1483

原创 DeepLearnToolbox中SAE代码理解

Dropout是指在模型训练时随机让网络某些隐含层节点的权重不工作,不工作的那些节点可以暂时认为不是网络结构的一部分,但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了。 训练神经网络模型时,如果训练样本较少,为了防止模型过拟合,Dropout可以作为一种trikc供选择。Dropout是hintion最近2年提出的,源于其文章Improving neural ne

2016-11-15 08:50:33 6528 3

原创 Sparse Autoencoder学习笔记

神经网络是监督学习,自编码算法是非监督学习,只有没有标签的训练样本集{x(1),x(2),x(3),...}\left \{ x^{(1)}, x^{(2)},x^{(3)},...\right \}。自编码算法可以学习到输入特征的压缩表达,当输入是完全随机的,即每个特征都是独立的且服从同一个高斯分布,那么这个压缩任务将会非常难,但是如果有一些输入特征是互相关联的,那么自编码算法将会发现这些关联。

2016-11-14 18:20:27 809

原创 Stacked Autoencoders学习笔记

上图是一个栈式自编码算法模型,属于无监督学习。栈式自编码神经网络是一个由多层自编码器组成的神经网络,其前一层自编码器的输出作为其后一层自编码器的输入。通过将重构的x与输入的x相减来计算误差。 encoder部分从原始2000维特征降至50维(根据实际情况,自定义特征数),有三个隐层,每一层都是提取的高维特征,最后一层作为降维后的特征可用作分类和回归。decoder部分输出重构的x,通过调整enco

2016-11-03 12:01:02 5467

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除