AlexNet_代码详细

问题背景:昨天了解清除了AlexNet的原理部分,今天着手看看代码。BTW,我是参考别人的文章,不算原创,不过文中会有很多我自己的见解与补充,算是做个笔记吧。
原文链接:
https://blog.csdn.net/taoyanqi8932/article/details/71081390 @yqtaowhu的


首先还是PO一下AlexNet的网络结构:
这里写图片描述


@yqtaowhu使用的是CPU运行,怕耗时太久,因此只定义网络结构,并进行前向后向的测试.

# 此函数为输出当前层的参数(层名称、输出尺寸)
def print_activations(t):   #输入为tensor
  print(t.op.name, ' ', t.get_shape().as_list())
#此函数为搭建AlexNet的函数
def inference(images):
  """Build the AlexNet model.
  Args:
    images: Images Tensor
  Returns:
    pool5: the last Tensor in the convolutional component of AlexNet.     #返回conv_5中池化后的结果
    parameters: a list of Tensors corresponding to the weights and biases of the AlexNet model.  #返回权重和偏差列表
  """

  parameters = []  
  # conv1
  with tf.name_scope('conv1') as scope:# 将scope内生成的Variable自动命名为conv1/xxx,区分不同卷积层之间的组件。
    kernel = tf.Variable(tf.truncated_normal([11, 11, 3, 96],dtype=tf.float32,stddev=1e-1), name='weights') #conv1的核是11*11,3是输入channel数(后面的函数run_benchmark()中指定了image的channel是3),96是输出channel数.stddev标准差0.1
    conv = tf.nn.conv2d(images, kernel, [1, 4, 4, 1], padding='SAME')
    biases = tf.Variable(tf.constant(0.0, shape=[96],dtype=tf.float32),trainable=True, name='biases')  #初始化biases,一维向量,96个元素,全为0
    bias = tf.nn.bias_add(conv, biases)  #把初始biases加到conv
    conv1 = tf.nn.relu(bias, name=scope)  #计算relu
    print_activations(conv1)  #输出当前层参数
    parameters += [kernel, biases]    #更新权重和偏差

  # lrn1 没有用LRN层
  # TODO(shlens, jiayq): Add a GPU version of local response normalization.
  # 考虑到LRN层效果不明显,而且会让forward和backwood的速度大大下降所以在此没有添加

 
  • 4
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值