深度学习基础知识
蓉城视觉小菜鸟
东搞一下视觉,西搞一下AI,就是不务正业
展开
-
深度学习基础(一)起源
目录一、DP的前世 1.perceptron 2.NN 3.DP二、DP的基础知识1.convolution2.padding3.pooling4.Flatten5.fully connected6.dropout一、DP的前世深度学习发展至今经历颇为曲折,上世纪起源,火热起来也是20世纪初的时候,具体时间如下图所示: ...原创 2019-03-05 15:39:28 · 1838 阅读 · 0 评论 -
深度学习基础(四)优化函数(梯度下降函数)
梯度下降函数也就是优化函数,在神经网络训练过程最重要的函数。重要程度类似于调校对于汽车的重要性,搭建模型和参数设置等操作=“造好了一辆汽车”,优化函数=“调校”。因为汽车最终的操控性和加速性能等指标很大程度取决于调校,调校的好的汽车操控性非常好,而调校不好的汽车开起来很难受。而优化函数也是一样,很多情况下学习模型是正确的,但是最终训练结果不如人意,往往是因为优化函数的选择错误。目录一、优化...原创 2019-03-08 16:09:36 · 2913 阅读 · 0 评论 -
深度学习基础(二)激活函数
激活函数(也被称为激励函数)的意义就是加入非线性因素,使得神经网络具有非线性表达的能力。其必要条件是激活函数的输入和输出都是可微的,因为神经网络要求处处可微。(可微是指函数的各个方向可导,可微大于等于可导)一、激活函数的定义与作用1.定义。如下图所示,激活函数一般是在神经元的输入(inputs)经过加权求和之后,还继续被一个函数作用。该函数就是激活函数。 ...原创 2019-03-11 11:16:57 · 1077 阅读 · 1 评论 -
深度学习之tensorflow (一) XORerr1 -修改
博客背景是学习《深度学习之TensorFlow》这本书籍中的作业,修改第七章的作业,把XOR-异或的错误代码修改为正确的。主要修改有三个地方:隐藏层一的运算从sigmoid修改为add运算; 输出层的运算修改为sigmoid(原来是什么运算忘记了。。); 将优化算法从GradientDescentOptimizer修改为牛逼的Adam算法;# -*- coding: utf-8 -...原创 2019-03-08 10:08:17 · 314 阅读 · 0 评论 -
深度学习基础(三)loss函数
loss函数,即损失函数,是决定网络学习质量的关键。若网络结构不变的前提下,损失函数选择不当会导致模型精度差等后果。若有错误,敬请指正,Thank you!目录一、loss函数定义二、常见的loss算法种类1.MSE(均值平方差)2.交叉熵三、总结四、tensorflow相应函数1.MSE2.交叉熵一、loss函数定义loss函数的作用就是描述模...原创 2019-03-13 09:18:33 · 26643 阅读 · 0 评论 -
深度学习之pytorch(一) 环境安装
快2周没更新博客了,别问为什么!我才不会告诉你忙的飞起!说心里话,个人更喜欢用tensorflow来做深度学习!一、环境配置1.win10 64位系统;2.anaconda3;3.不管是CPU还是GPU具有(服务器是GPU,自己的笔记本是CPU版本)二、安装安装比较简单,由于之前也是基于anaconda3安装的tensorflow,现在也是照本宣科。这一步不了解的可以参照之...原创 2019-03-25 15:06:26 · 2006 阅读 · 1 评论