神经网络与深度学习-第二次总结

本文探讨了深度学习的优势,如减少全连接网络的复杂性,介绍PyTorch作为深度学习平台的特性,包括张量和计算图的概念,以及卷积神经网络的基础知识,如特征提取、池化和LeNet-5网络的比较。
摘要由CSDN通过智能技术生成

一、深度学习的优势

1、全连接网络的问题

  • 全连接网络:链接权过多,算的慢,难收敛,同时可能进入局部极小值,也容易产生过拟合问题。e.g. 输入为1000 × 1000图像,隐含层有1M个节点,则输入->隐 含层间有 1×1012 数量级参数
  • 解决算的慢问题:减少权值连接,每一个节点只连到上一层的少 数神经元,即局部连接网络。

2、深度学习平台简介

3、Pytorch简介

  • PyTorch是一个Python的深度学习库。它最初由Facebook人工智能研 究小组开发,而优步的Pyro软件则用于概率编程。
  • 最初,PyTorch由Hugh Perkins开发,作为基于Torch框架的LusJIT的 Python包装器。PyTorch在Python中重新设计和实现Torch,同时为后端代码共享相同的核心C库。
  • 除了Facebook之外,Twitter、GMU和Salesforce等机构都采用了 PyTorch。
  • 到目前,据统计已有80%的研究采用PyTorch,包括Google.
  • 4、基本概念

  • 张量(Tensor):是一个物理量,对高维(维数≥ 2) 的物理量进行“量纲分析”的一种工具。简单的可以理解为:一维数组称为矢量,二维数组为二阶张量,三维数组为三阶张量…
  • 计算图:用“结点”(nodes)和“线”(edges)的有向图来描述数学计算的图像。 “节点”一般用来表示施加的数学操作,但也可以表示数据输入的起点/输出的终点,或者是读取/写入持久变量的终点。 “线”表示“节点”之间的输入/输出关系。这些数据“线”可以输运“size可动态调整”的多维数据数组,即“张量”(tensor)
  • 5、卷积神经网络基础

  • 基本概念

    1.特征提取:注意,图像卷积时,根据定义,需要首先把卷积核上下左右转置。此处 卷积核(黄色)是对称的,所以忽视。
    2.填充(Padding):也就是在矩阵的边界上填充一些值,以 增加矩阵的大小,通常用0或者复制边界像素来进行填充。

  • 3.步长(Stride)

  • 4.多通道卷积:如RGB

  • 5.池化(Pooling):思想:使用局部统计特征,如均值或最大值。解 决特征过多问题

  • 6.卷积神经网络结构

  • 构成:由多个卷积层和下采样层构成,后面可连接全连接网络。
  • 卷积层:k个滤波器。
  • 下采样层:采用mean或max。
  • 后面:连着全连接网络
  • 7、学习算法
  • 8、误差反向传播
  • 9、LeNet-5网络
  • 6个Feature map构成
  • 每个神经元对输入进行5*5卷积
  • 每个神经元对应5*5+1个参数,共6个feature map, 28*28个神经元,因此共有 (5*5+1)*6*(28*28)=122,304连接
  • 与现在网络的区别 :

  • 卷积时不进行填充(padding)
  • 池化层选用平均池化而非最大池化
  • 选用Sigmoid或tanh而非ReLU作为非线性环节激活函数
  • 层数较浅,参数数量小(约为6万)
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值