卷积的使用

使用tensorflow的框架在mnist上实现两个卷积层一个全链接层构建的卷积网络

“`
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
mnist = input_data.read_data_sets(“MNIST_data/”,one_hot=Ture)
sess = tf.InteractiveSession()

创建默认的Interactive Session。

def weight_variable(shape):
inital = tf.truncated_normal(shape, stddev=0.1)
return tf.Varilable(initial)
def bias_variable(shape):
inital = tf.constant(0.1,shape=shape)
return tf.Varilable(initial)
#本次使用ReLU所以标准差为0.1也给偏置增加小一点的0.1用来避免死亡节点,同时也不能将池化层和卷积层分开不能重复使用避免创建函数的重复定义出现歧义覆盖,输入参数x和权重w的参数。RGB只有灰色所以设置为1,彩色就是3.padding是边界处理使用SAME代表加上padding让卷积的输入和输出与SAME在格式尺寸上一样(一般是150x150像素)
dev conv2d(x,w)

“`

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值