- 博客(9)
- 收藏
- 关注
原创 课程笔记
输入的数据,通过一个加权,再求和,再加一个偏置,输入隐层的神经元里。神经元自带一个激活函数active function(比如sigmod function)。然后进入输出层。其中权重weight和偏置bias属于参数,只存在于隐藏层,可调。如果将参数去掉,得到的就是一个网络结构。网络结构很重要,如果不能获取正确的网络结构,那么怎么调整都没有意义。(我们跟猴子的差距是网络结构,我跟学霸
2017-11-17 13:18:29
219
原创 在507干活的第5天
昨天基本掌握了深度学习的原理。但是实例给的是基于Theano的。不是基于tensorflow的。因此我决定读一读师兄写的代码。于是今天的任务是看Keras的文档。知识点1:符号计算符号计算是一种计算模式。其流程就是先定义好各种变量,然后搭建好一个“计算图”,最后带进实际的数进行计算。一种先搭好水管(Network),再流进水(Session)的思路。知识
2017-07-14 10:58:15
220
原创 在507干活的第4天(下)
进入深度学习这一章节。下午状态有些差,可能是因为晚上睡得少有关。睡一觉以后就好了(笑)知识点1:总览卷积神经网络卷积神经网络是一种深度学习神经网络。其拥有2个隐层。它有三个非常重要的概念局部感受野(local receptive fields),共享权重(shared weights),和混合(pooling)。他们如下图一般组织在一起。其中最后一层是混合层
2017-07-13 15:13:55
257
原创 在507干活的第3天(下)
改进神经网络的学习方法这一章终于是看完了。下面进入第四章“神经网络可以计算任意函数的可视化证明”这章应该只是为了证明普遍性定理——“包含一个隐藏层的神经网络可以被用来按照任意给定的精度来近似任何连续函数。”所以和前面联系不大。但是这点依然对我很有吸引力(证明起来应该会很舒服)知识点1:两个预先声明第一个是:我们得出的结论并不是一个准确的值,而是一个足够精确的近似。第二个是:我们
2017-07-12 15:02:26
257
原创 在507干活的第3天(上)
今天继续看深度学习和神经网络额外1:静态方法静态方法指的就是不需要某个类实例(也就是self)的方法。可以直接从外面引进一个参数。而非静态方法则必须用类的实例来做变量。这部分是面向对象的内容。还需要进行学习。额外2:谈话师兄表示如果想去互联网公司的话,本科毕业直接去,不要读研究生。或许找到自己真正想干什么是最重要的。其他的东西,最后发现都是在浪费时间。知识点1:
2017-07-12 11:49:22
237
原创 在507干活的第2天
额外1:总览整个神经网络的工作过程由于今天睡得太多,脑子昏昏沉沉的,所以看新东西很费劲,于是我决定总览一下整个神经网络的工作过程。神经网络的作用是通过输入一组数据,与预期的输出结果进行对比,然后对比以后调整中间层的权值和阈值,从而自动输出其他没有预期输出结果的数据的模型。其中代价函数是用于对“与预期的输出结果进行对比”量化的函数。比如二次代价函数,还有交叉熵代价函数。如何调整中间层
2017-07-11 10:51:17
238
原创 在507干活的第1天(下)
今天下午的任务是学习理论知识。预期目标是看完“改进神经网络的学习方法“这一章。下面是总结。第一部分:交叉熵代价函数在利用均方误差该函数的时候,如果误差很大,那么一开始的几轮迭代,学习速度很低。随着其越来越接近最终结果,迭代的学习速度变得越来越高。这很奇怪。因为人类可以从更大的错误中获取更大的进步,但是这个算法不行。所以还有待改进。这个问题称为学习减速问题学习减速
2017-07-10 14:52:32
212
原创 在507干活的第1天(上)
问题1:TensorFlow的package出了问题。终于开始在办公室干活了。从今天开始要正式的用TensorFlow试着写一写神经网络。做点笔记。一开始从文档里面复制了一些东西来用。然而并没有跑起来。出现了错误No module named "_pywrap_tensorflow"DLL load failed.。后来发现错误处在TensorFlow的安装
2017-07-10 10:40:53
235
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人