CNN及常用框架

本文介绍了卷积神经网络(CNN)的基本结构和工作原理,包括数据输入层、卷积计算层、激励层(ReLU)、池化层和全连接层。讨论了ReLU的优缺点,以及CNN在处理高维数据和分类问题中的优势。此外,还提到了CNN的典型应用如LeNet、AlexNet等,并提及常用的CNN框架如Caffe、Torch和TensorFlow。
摘要由CSDN通过智能技术生成

一、神经网络:

增加少量隐层(浅层神经网络),增加中间层(深度神经网络,DNN)。神经网络应用在分类问题中效果好,LR或Linear SVM,线性分割都可用于分类。

二、卷积神经网络(CNN):

卷积神经网络依旧保存了层级结构,但层的功能和形式发生了变化。

分别有:数据输入层、卷积计算层、激励层、池化层、全连接层

1、数据输入层(Input layer)

(1)去均值:把输入数据各个维度都中心化到0(只计算训练集上的均值)(对应下图2的平移)

(2)归一化:幅度归一化到同样的范围(RGB的范围本身

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值