对卷积的的认识

1. 背景知识点:
1:f(x)和f(-x) 关于x=0对称
2: f(x)左移和右边移动的规则是左加右减。
2:f(x)和f(n-x)的关系:f(x)以x=0作为转轴,对称变换为f(-x),f(-x)再向右边移动n个单位为f(-(x-n)), 即为f(n-x)

2. 定义:
和平时我们认识的加减乘除一样,卷积也是一种运算,卷积的定义如下:


3.个人理解
问题1: 从公式看其普遍意义上上的应用场景,是什么?
个人理解为一个函数做为另外一个函数的输入,我们怎么求出最终的输出?两个函数f(x), g(x)做卷积。

问题2: 为什么叫卷积呢?
个人理解:
两个函数做卷积,先让一个函数以X=0多堆成翻转,然后再向右平移n个单位的另外一个函数。这就是卷积中的卷。
然后两个原函数和平移后的函数做乘积,然后做累加和(积分理解为是用来求和的)。

问题3:物理意义上上如何理解卷积,列举一个案例?

一个离散形式的案例:
一个非常好的例子是丢骰子:扔2次骰子,总获得4点的概率是多少?

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
卷积神经网络(Convolutional Neural Network,CNN)是一种广泛应用于图像识别、语音识别等领域的深度学习算法。它的基本原理是通过多层卷积和池化操作对输入数据进行特征提取,并通过全连接层将提取到的特征映射到输出类别。以下是卷积神经网络的几个特点: 1. 局部连接:卷积神经网络中的每个神经元只与输入数据的一部分区域连接,这样可以减少连接数量,降低计算复杂度,同时也保留了图像的局部信息。 2. 权值共享:卷积神经网络中的每个卷积核在不同的位置应用时使用相同的权值,这样可以减少参数数量,防止过拟合,提高模型的泛化能力。 3. 池化操作:池化操作可以减小特征图的维度,减少计算量,同时也可以提取图像的平移不变性,增强了模型的鲁棒性。 4. 多层卷积和全连接层:卷积神经网络可以通过多层卷积和池化操作来提取图像的不同层次的特征,最后通过全连接层将提取到的特征映射到输出类别。 针对之前的实验内容,可以考虑使用卷积神经网络来实现手写数字识别。具体的实现方法可以包括以下几个步骤: 1. 数据预处理:将手写数字图像进行标准化处理,例如将图像大小缩放到固定大小,将像素值归一化到0~1之间。 2. 卷积和池化层:使用多个卷积和池化层来提取图像的特征,每个卷积和池化层可以使用不同的卷积核大小和步长,以及不同的激活函数。 3. 全连接层:将提取到的特征映射到输出类别,可以使用一个或多个全连接层,最后使用softmax函数将输出转化为概率分布。 4. 损失函数和优化器:使用交叉熵损失函数来度量模型预测结果与实际结果之间的差异,使用优化器来更新模型的参数,例如随机梯度下降(SGD)或Adam优化器。 5. 训练和测试:使用训练数据来训练模型的参数,使用测试数据来评估模型的性能,可以使用准确率、精度、召回率等指标来评估模型的性能。 以上是卷积神经网络的基本实现方法,具体的模型结构和参数配置可以根据实际问题进行调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值