TF2.0深度学习实战(七):手撕深度残差网络ResNet

本文深入探讨ResNet网络,解释其提出背景、创新点和网络结构,包括捷径连接和瓶颈结构。接着通过TensorFlow2.0详细实践搭建ResNet模型,涵盖数据集准备、网络模型构建、模型训练和结果分析。
摘要由CSDN通过智能技术生成

目录

一、ResNet详解

1.1 ResNet简介

1.2 提出背景

1.3 ResNet创新之处

1.4 ResNet网络结构

(1) 捷径连接

(2) 更深的瓶颈结构

(3) 残差模块中虚实线的区别

(4) 整体结构

1.5 ResNet的性能

二、TensorFlow2.0搭建ResNet实战

2.1 数据集准备

(1) 数据集介绍

(2) 数据集加载与准备

2.2 搭建ResNet网络模型

(1) 搭建残差模块

(2) 搭建整体网络结构

2.3 模型装配与训练

2.4 训练过程与结果


一、ResNet详解

1.1 ResNet简介

ResNet来源于《Deep Residual Learning for Image Recognition》这篇论文,在2015年,由微软亚洲研究院的何凯明等人共同发表。其研究成果在ILSVRC 2015挑战赛ImageNet数据集上获得分类任务和检测任务双冠军。ResNet论文至今已经获得超 25000 的引用量,可见 ResNet 在人工智能领域的影响力。
我们常说的ResNet是一种基于跳跃连接的深度残差网络算法。根据该算法提出了18 层、34层、50 层、101 层、152 层的 ResNet-18,ResNet-34,ResNet-50,ResNet-101 和 ResNet-152 等模型,甚至成功训练出层数达到1202层的超深的神经网络。

1.2 提出背景

前面我们学过AlexNet,VGG,GoogLeNet 等网络模型,它们的出现将神经网络的发展带入了二十几层的阶段。研究人员发现网络的层数越深,理想情况下,网络模型的学习效果越好。但是实际中,单纯地增加网络的深度,网络会变得越来越难训练,而且精度会达到饱和。这

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

人工智能_SYBH

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值