![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Tensorflow 1.0
文章平均质量分 55
小娄今天发论文了吗
这个作者很懒,什么都没留下…
展开
-
Tensorflow1.0 第五集:卷积神经网络CNN的MNIST数据集
Tensorflow1.0 第五集:卷积神经网络CNN的MNIST数据集卷积、卷积核就是做卷积计算池化就是最大池化和平均池化那些玩意PaddingSAME PADDING: 给平面外部补0 卷积窗口采样后得到一个跟原来平面大小相同的平面VALID PADDING: 不会超出平面外部卷积窗口采样后得到一个比原来平面小的平面假如有一个28×2828\times2828×28的平面,用 2×22\times22×2并且步长为2的窗口对其进行pooling操作,使用SAME PADDING的方式原创 2021-07-26 17:13:29 · 302 阅读 · 0 评论 -
Tensorflow1.0 第四集:优化器
Tensorflow1.0 第四集:优化器Optimizertf.train.GradientDescentOptimizer tf.train.AdadeltaOptimizer tf.train.AdagradOptimizer tf.train.AdagradDAOptimizer tf.train.MomentumOptimizer tf.train.AdamOptimizer tf.train.FtrlOptimizer tf.train.ProximalGradientDesc原创 2021-07-26 13:56:01 · 398 阅读 · 0 评论 -
Tensorflow1.0 第三集:Dropout
Tensorflow1.0 第三集:Dropout防止过拟合的方法:增加数据集正则化方法:C=C0+λ2n∑ww2C = C_{0} + \frac{\lambda}{2n}\sum_{w}w^{2}C=C0+2nλ∑ww2,减少了网络的复杂程度Dropout:训练的时候只用部分的神经元进行训练,测试的时候再将所有神经元激活还是之前的手写数字集,继续加上Dropout:import tensorflow as tffrom tensorflow.examples.tutorial原创 2021-07-24 16:39:19 · 134 阅读 · 0 评论 -
Tensorflow1.0 第二集:交叉熵代价函数
Tensorflow 1.0 第二集:交叉熵代价函数 周六还要坐班是真的困,摸鱼都困的那种困,是个困困的打工人。 二次代价函数(quadratic)C=12n∑x∣∣y(x)−aL(x)∣∣2 C = \frac{1}{2n} \sum_{x} ||y(x) - a^{L}(x)||^{2} C=2n1x∑∣∣y(x)−aL(x)∣∣2其中CCC表示代价函数,xxx表示样本,yyy表示实际值,aaa表示输出值,nnn表示样本的总数。为简单起见,以一个样本为例作为说明,此时代价函数为C=原创 2021-07-24 15:35:29 · 120 阅读 · 0 评论 -
Tensorflow1.0 第一集续:MNIST数据集(没带卷积)
Tensorflow 1.0 第一集续:MNIST数据集用了批次(Batch)的概念。import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data# 输入数据集mnist = input_data.read_data_sets("MNIST_data", one_hot=True)# 每个批次大小,即每次训练的时候用的样本大小batch_size = 50# 计算一共有多少个批次n_b原创 2021-07-23 15:54:51 · 94 阅读 · 0 评论 -
Tensorflow1.0 第一集: 最简单的神经网络
Tensorflow 1.0 第一集(希望实习结束的时候就算我没学会tableau,也能学会Tensorflow吧!)定义会话import tensorflow as tfm1 = tf.constant([[3,3]])m2 = tf.constant([[2],[3]])product = tf.matmul(m1, m2)print(product)# 定义一个会话,启动默认图Sess = tf.Session()print(Sess.run(product))Sess.cl原创 2021-07-23 15:51:13 · 227 阅读 · 0 评论