深度学习
文章平均质量分 71
shayashi
这个作者很懒,什么都没留下…
展开
-
win10 vs2013编译caffe-cpu pycaffe
记录下编译caffe的过程。windows10 64位(本来电脑是32位的,编译一直出错,后重装64位)VS2013caffe-master https://github.com/microsoft/caffe(之前看别人博客发的百度云链接,是15个项目,这个16个,没有对比过有何不同)python27 确保有numpy包(没有试过python37是否可以)1.重命名caffe-mas...原创 2020-04-03 16:54:25 · 355 阅读 · 0 评论 -
Bayesian Statistics贝叶斯估计
贝叶斯估计使用概率作为信息的确信程度,认为数据集是直接可以观测的,所以不是随机的。而真实的参数是不确定的所以被表示成随机变量。 在观测数据之前,使用先验概率分布表示的信息。先验概率的选择是很宽泛的。 使用贝叶斯公式计算样本对参数的影响: 先验概率一般选择高斯分布或均匀分布都拥有很高的熵,通过观测的数据降低熵,并且集中选择参数最可能的值。且贝叶斯估计是基于的全分布来估计。例如观测过m个样本...原创 2018-09-13 17:28:15 · 3213 阅读 · 0 评论 -
Machine Learning Basics
Deep Learning的第五章Machine Learning Basics总结。这一章主要讲机器学习的基本概念和组成。1.学习算法机器学习算法是指能够从数据中学习的算法。Mitchell给出的机器可以学习简明定义为:对于某类任务T和性能度量P,如果一个计算机程序在T上以P衡量的性能随着经验E而自我完善,那么我们称这个计算机程序在从经验E中学习。英文原版为: 下面简单介绍经验...原创 2018-09-10 16:20:15 · 412 阅读 · 0 评论 -
KKT approach和generalized Lagrangian function
KKT(Karush-Kuhn-Tucker) approach提供一种一般方法来实现带约束的优化。使用KKT approach我们引入generalized Lagrabgian function(广义拉格朗日函数)。 广义拉格朗日函数定义为: 。 其中和被称为KKT multipliers(KKT乘子),定义集合S来表示和,记为:。被称为equality constraints(等式约束...原创 2018-09-08 15:22:19 · 458 阅读 · 0 评论 -
Numerical Computation
总结Deep Learning第四章Numerical Computation知识点。 1.Overflow and Underflow 书中指出在数字计算机系统中最大的连续计算问题是用有限的位运算表示无限多个实数。对于一些实数,当我们在计算机中表示时会出现近似错误,最常见的就是舍入错误。例如将近似0的数舍入成0,这就是Underflow。而当舍入的0出现在分母时,就会出现大的计算错误问题。而...原创 2018-09-08 14:36:32 · 1018 阅读 · 0 评论 -
Probability and Information Theory
读完Deep Learning的第三章Probability and Information Theory,总结一下这章的知识点。 第三章讲概率论和信息论的基础知识。1. 随机变量Random Variables在书中知识简单说随机变量是可以随机取不同值的变量,而没有给出确切定义。随机变量可以使分散的(discrete)或连续的(continuous)。(最近在学应用随机过程,其中有...原创 2018-09-06 17:20:28 · 415 阅读 · 0 评论 -
Linear Algebra 线性代数
Linear Algebra 线性代数最近在看Deep Learning这本书,刚看了Linear Algebra章,总结一下。名词函数 Scalars:标量,就是单个数,一般用小写倾斜字体表示。 Vectors:向量,一般用小写加粗字体表示。 Matrices:二维矩阵,一般用大写加粗字体表示。 Tensors:多维矩阵。矩阵的基本运算 transpose:转置,使...原创 2018-09-02 17:03:23 · 969 阅读 · 0 评论 -
神经网络基础知识总结
神经网络基础知识总结前馈神经网络 前馈神经网络描述的是网络的结构,是指每一层的神经元只接受前一层神经元的输入,并且输出到下一层。BP神经网络 BP神经网络在百度百科上的解释是一种按照误差逆向传播算法训练的多层前馈神经网络。BP即Back Propagation,就是常用的反向传播算法。MLP MLP是多层感知机也成为多层神经网络,是一种前向结构,包括输入层、隐藏层和输出层。至少三...原创 2018-09-02 10:40:01 · 7733 阅读 · 1 评论 -
Bias 和 Variance的计算
Bias(偏差)描述的是预期值偏离真实值的大小,所以high bias代表Underfitting(欠拟合)。 Variance(方差)描述的是任何特殊采样数据可能造成的与预期值的偏离,所以high variance 代表Overfitting(过拟合)。 下面介绍Bias和Variance的计算。Bias估计量的bias定义为: 如果,则说估计量是无偏差的。Bernou...原创 2018-09-12 11:41:12 · 18628 阅读 · 1 评论