深度学习基础知识

一、卷积神经学(冒着被导师tao的风险写下来,导师内心os:竟然还从这么基础开始看!!!)

1、卷积的概念:

      卷积来源于英文的Convolution,其中Con是积分,vol是转、卷。

      卷积是一种数学运算,常用于信号处理和图像处理等领域,它用简单的数学形式,描述了一个动态的过程。

      卷积的定义如下(这个复杂的公式,在卷积神经网络中可能是用不到):

      设 f 和 g 是两个定义在实数域上的函数,它们的卷积 fg 定义为:

      其中 t 为实数,τ 是积分变量。

      在离散形式下,如果 f 和 g 是两个长度为 n 的向量,它们的卷积 fg 定义为:(这个公式有待于进一步查找学习

     

        其中 k 是整数,[i] 表示向量 f 的第 i 个元素。

        2、卷积神经网络(Convolutional Neural Networks)是一种深度学习模型或类似于人工神经网络的多层感知器,常用来分析视觉图像。该算法的灵感来自于人脑的一部分,即视觉皮层。视觉皮层是人脑的一部分,负责处理来自外界的视觉信息。它有不同的层,每一层都有自己的功能,即每一层从图像或任何视觉中提取一些信息,最后将从每一层接收到的所有信息组合起来,对图像/视觉进行解释或分类。同样,CNN有各种滤波器,每个滤波器从图像中提取一些信息,例如边缘、不同种类的形状(垂直、水平、圆形),然后将所有这些组合起来识别图像。在过去的几年中,CNN已经在图像识别、目标检测、图像生成和许多其他领域取得了显著的进展,成为了计算机视觉和深度学习研究的重要组成部分。

        通道(之前带ps图像处理课程,和师弟讨论时候一直混淆,这下有石锤解释了)和一幅图像根本就没关系!数字图像是矩阵,矩阵只描述其空间位置和在色彩上的分量,哪有通道了?通道是什么?CHANNEL!图片中有channel这个概念吗?有个回答说通道类似颜料,这个意思就有点接近了。想要什么颜色,对应的通道里的灰度值就大一点就行了。

        2.卷积核

        卷积核是一种可学习的滤波器,用于对输入图像进行特征提取。卷积核通常是一个小的二维矩阵,其大小通常为 k×k,其中 k 是一个正整数,称为卷积核大小。卷积核的值通常是由神经网络自动学习得到的。

        卷积核的作用是提取输入数据的局部特征。在卷积操作中,卷积核可以识别输入图像中的不同特征,例如边缘、纹理、角落等,从而提取更加高级的特征表示。通过使用多个卷积核,可以提取不同类型的特征,形成更加复杂的特征表示,进而提高模型的性能。      

        不同的卷积核(即采用不同的二维矩阵)可以实现不同的效果,常见的卷积核有:

        Sobel卷积核:边缘检测;
        Scharr卷积核:也是边缘检测卷积核,比Sobel更加平滑;
        Laplacian 卷积核:用于检测图像中的边缘和角点,具有旋转不变性和尺度不变性;
        高斯卷积核:用于图像平滑,减少图像中的噪声和细节信息;
        梯度卷积核:用于检测图像中的梯度信息,如水平和垂直方向的梯度;
        Prewitt 卷积核:用于检测图像中的边缘信息,与 Sobel 卷积核类似,但效果略差 ;
        Roberts 卷积核:用于检测图像中的边缘信息,与 Sobel 卷积核类似,但计算速度更快,精度稍低;
        LoG 卷积核:Laplacian of Gaussian 卷积核,是 Laplacian 卷积核和高斯卷积核的组合,用于检测图像中的边缘和斑点。

3. 卷积核大小
        卷积核的大小是卷积神经网络中的一个超参数,通常与输入数据的尺寸以及需要提取的特征的大小有关。在卷积神经网络中,卷积核的大小通常比较小,例如常见的卷积核大小为 3 或 5,因为较小的卷积核可以更好地保留输入图像中的局部特征。

        同时,卷积核的大小也需要根据卷积操作的步幅和填充等超参数进行选择。在后面例子中,卷积核大小为 3,步幅为 1,填充为 1,即每次卷积操作会对输入图像中的 3 × 3 3\times33×3 的区域进行处理,并生成一个相同大小的卷积特征。填充的目的是为了保留输入图像的边缘信息,以避免在卷积操作中丢失像素。

        需要注意的是,卷积核大小的选择需要根据具体问题进行调整,通常需要通过实验来确定最佳的超参数。

2.卷积层工作原理

      卷积层的作用:就是提取图片每个小部分里具有的特征
     假定我们有一个尺寸为 6∗6 的图像,每一个像素点里都存储着图像的信息。我们再定义一个卷积核(相当于权重),用来从图像中提取一定的特征。卷积核与数字矩阵对应位相乘再相加,得到卷积层输出结果。

卷积层具体工作过程:
        比如我们设计的一个卷积核如下左,想要识别出来的曲线如下图:

        现在我们用上面的卷积核,来识别这个简化版的图片——一只漫画老鼠。当机器识别到老鼠的屁股的时候,真实区域数字矩阵与卷积核相乘作用后,输出较大:6600;而用同一个卷积核,来识别老鼠的耳朵的时候,输出则很小:0 。

        我们就可以认为:现有的这个卷积核保存着曲线的特征,匹配识别出来了老鼠的屁股是曲线的。我们则还需要其他特征的卷积核,来匹配识别出来老鼠的其他部分。卷积层的作用其实就是通过不断的改变卷积核,来确定能初步表征图片特征的有用的卷积核是哪些,再得到与相应的卷积核相乘后的输出矩阵。(本想运行一个小程序再发布,不想遇到点问题,先发布一个吧)

      后面要加强实践了哦,实践出真知

图片很多引用此处,把我小白讲的很清楚,十分感谢,如侵删(https://www.cnblogs.com/haohai9309/p/18211716

深度学习是机器学习的一个分支,它通过模拟人脑神经网络的结构和功能,实现了对复杂数据的学习和理解。以下是深度学习的一些基础知识入门: 1. 神经网络:神经网络是深度学习的基本模型,它由多个神经元组成。每个神经元接收一些输入,经过加权和激活函数处理后,产生一个输出。 2. 前向传播:前向传播是指神经网络从输入层到输出层的过程。它通过不断对输入数据进行加权处理和非线性变换,最终得到输出结果。 3. 反向传播:反向传播是指根据输出结果与真实标签之间的差异,通过链式法则将误差逐层反向传播到各个神经元,从而更新网络中的权重和偏置。 4. 损失函数:损失函数用于衡量模型输出与真实标签之间的差异。常见的损失函数有均方误差(MSE)、交叉熵(Cross Entropy)等。 5. 激活函数:激活函数引入非线性变换,使得神经网络可以学习非线性关系。常见的激活函数有ReLU、Sigmoid、Tanh等。 6. 优化算法:优化算法用于更新神经网络中的权重和偏置,以使损失函数最小化。常见的优化算法有梯度下降(Gradient Descent)、Adam等。 7. 深度学习框架:深度学习框架提供了一种方便快捷的方式来构建、训练和部署神经网络模型。常见的深度学习框架有TensorFlow、PyTorch等。 以上是深度学习基础知识的简要介绍,希望能对你入门深度学习有所帮助。如果你对某个具体主题有更深入的需求,可以告诉我。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值