AI作业
文章平均质量分 52
肥春勿扰
这个作者很懒,什么都没留下…
展开
-
AI作业8
5. 低级特征、中级特征、高级特征:低级特征指对原始输入数据进行初步处理得到的特征,比如边缘、角点等;高级特征指对中级特征进行更深层次的处理得到的特征,比如物体的部分、物体的整体形状等。不同级别的特征可以用于不同的任务,比如低级特征可以用于图像分类,而高级特征可以用于目标检测。2. 感受野:指某一层神经元的输入来自上一层神经元的区域大小,也就是描述了神经元对输入数据的接受范围。4. 池化(子采样、降采样、汇聚):池化是卷积神经网络中的一种操作,目的是减小特征图的大小,从而减少参数数量和计算量。原创 2023-05-23 22:34:57 · 27 阅读 · 0 评论 -
AI作业10
该模型主要解决了深度神经网络的退化问题,即随着网络层数增加,模型精度反而逐渐下降的问题。采用了一系列的3×3大小的卷积层堆叠来代替AlexNet中更大尺寸的卷积核,使得网络有更小的参数量并提高了泛化能力。该模型具有8层神经网络结构,其中包括5个卷积层和3个全连接层,并且引入了ReLU激活函数、Dropout随机失活等技术,有效地提高了模型的性能表现。Inception模块增加了网络的宽度,意味着更多的通道数量,以及增加了卷积核的大小和数量,在保持模型参数量相对较小的情况下,有效地提高了模型的性能表现。原创 2023-06-01 15:09:25 · 35 阅读 · 0 评论 -
AI作业6-误差反向传播
计算图也是许多深度学习框架(如TensorFlow和PyTorch)的核心模块,提供了一种高效的、灵活的、可扩展的方式来实现神经网络模型的计算和优化。同时,计算图也为优化算法提供了很好的支持,例如在反向传播算法中,可以通过计算图自动计算偏导数,避免手动计算时的繁琐和错误。计算图的前向传播即从输入数据开始,按照节点之间的依赖关系,通过一步步的计算最终得到输出结果的过程。在求解损失函数的最小值时,可以通过梯度下降法来一步步的迭代求解,得到最小化的损失函数和模型参数值。的一种,可以用于求解。原创 2023-04-22 14:45:35 · 40 阅读 · 0 评论 -
AI作业12
该记忆单元主要由输入门、遗忘门和输出门等多个部分组成,并且可以根据当前的输入信息和历史信息,学习如何调整它的内部状态。更新门:更新门决定了当前时刻输入数据对于保留前一时刻记忆状态的重要性,其值范围为 0~1,当更新门接近于1时,表示当前输入比较重要,需要保留前一时刻的记忆状态;输入门:输入门控制着当前时刻新的输入信息能够加入单元状态中的程度。主要通过Sigmoid函数和点积等运算得到一个输出,用来决定之前所存储的历史信息,以及输入当前的新信息是否可以进入下一个时间步,并对其进行标准化后输出。原创 2023-06-01 15:07:01 · 33 阅读 · 0 评论 -
AI作业5 深度学习基础
在FNN中,输入信号从输入层进入,经过各个隐藏层的非线性变换后,最终产生输出结果。因此,后续的神经网络模型,如多层感知机(MLP)和卷积神经网络(CNN)等在SLP的基础上不断发展和改进,成为更为强大和灵活的模型。如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,这种情况就是最原始的感知机(Perceptron)。MLP的参数可以通过反向传播算法进行训练,即通过计算损失函数在权重和偏置项上的导数,并将其传递给前面的每一层,以更新每个神经元的参数。原创 2023-04-16 10:47:20 · 79 阅读 · 0 评论 -
AI第一次作业
ai原创 2023-03-08 21:01:01 · 35 阅读 · 0 评论 -
AI第一次作业
回归 损失函数原创 2023-03-08 21:05:20 · 56 阅读 · 0 评论 -
ai第二次作业
ai 监督学习原创 2023-03-22 11:10:55 · 35 阅读 · 0 评论 -
AI作业11
在推理时,模型可用于将输入序列翻译为目标语言的序列。RNN通过引入循环结构来允许信息从之前的时间步骤传递到当前时间步骤,因此可以捕捉到序列中前面的信息,并将其隐藏状态作为输入。结构和参数:前馈网络的结构和参数是固定的,通常需要手动设置超参数,从而可能导致模型受限于其特定的体系结构和数据,不适用于其他类型的问题或数据集。CNN能够捕捉到输入数据的局部特征,RNN具有记忆能力,可以利用序列中的时序关系更好地理解整个序列。难以处理变长输入:前馈网络的输入大小固定、连接方式固定,使其难以处理可变长度的输入序列。原创 2023-06-01 15:07:32 · 31 阅读 · 0 评论 -
AI作业9
feature_map[i] = np.zeros((feature_map_h, feature_map_w)) # 初始化特征图。relu_map[i] = np.zeros((relu_map_h, relu_map_w)) # 初始化特征图。img = feature_pool_1.data.squeeze().numpy() # 将输出转换为图片的格式。img = feature_relu1.data.squeeze().numpy() # 将输出转换为图片的格式。原创 2023-06-01 15:16:44 · 38 阅读 · 0 评论