tensorflow2.0---笔记5 卷积神经网络

卷积神经网络简介

在这里插入图片描述
隐藏神经元与输入的连接可以看作一种观察方式。图一中全连接层,第一个隐藏神经元与所有输入相连,相当于一次观察整幅图像;而图二卷积神经网络,一次观察一个小区域。卷积神经网络相对于全连接网络最大的特点就是参数量的大幅减少
在这里插入图片描述
在这里插入图片描述
对比CV中的卷积核(经验得出):

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
CNN中,w学习得到,可以采用多个卷积核提取特征,增加网络的抽象能力。

在这里插入图片描述
在这里插入图片描述

卷积神经网络中,一般随着层数增加,w、h下降,channel增加;前面卷积层提取底层特征(颜色、边缘),而后面的层提取的是高层特征(轮子、窗户等)。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
(不常用)

卷积神经网络中的梯度下降

在这里插入图片描述

池化与采样

在这里插入图片描述

pooling

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

upsample

在这里插入图片描述
在这里插入图片描述

ReLU

在这里插入图片描述
一般,灰度值,白255,黑0。

在这里插入图片描述

CIFAR100实战

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

import tensorflow as tf
from tensorflow.keras import layers, optimizers, datasets, Sequential
import os

os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
tf.random.set_seed(2345)


# conv_layers: 5 units of conv + maxpooling
conv_layers = [

    # unit 1
    layers.Conv2D(64, kernel_size=[3, 3], padding='same', activation=tf.nn.relu),
    layers.Conv2D(64, kernel_size=[3, 3], padding='same', activation=tf.nn.relu),
    layers.MaxPool2D(pool_size=[2, 2], strides=2, padding='same'),
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值