- 博客(5)
- 收藏
- 关注
原创 深度学习课程学习笔记3
基本卷积神经网络AlexNetAlexNet是一种由Alex Krizhevsky等人在2012年提出的卷积神经网络,主要用于ImageNet图像识别任务。它包含了5个卷积层和3个全连接层,其中使用了ReLU激活函数和Dropout正则化技术,以提高模型的泛化能力。其结构如下图所示:其中,卷积层使用ReLU函数作为激活函数,最大池化层的窗口大小为3x3,全连接层使用ReLU函数作为激活函数。AlexNet的计算公式为:hi(1)=f(∑j=1mwj(1)xi+j−1(1)+b(1))h_i^{(
2023-04-01 19:54:47
58
原创 深度学习课程学习笔记2
常用的池化操作包括最大池化和平均池化。LeNet-5的特点在于,它采用了卷积层和池化层的结构,通过减少网络中的参数数量和共享权重来减少过拟合的风险。动态计算图:PyTorch使用动态计算图,允许用户在计算图中使用条件语句、循环等结构,具有更灵活的建模能力,同时也能够更方便地进行调试和优化。总之,PyTorch是一个灵活、高效、易用的深度学习框架,广泛应用于学术界和工业界,是深度学习领域的重要组成部分。卷积层用于提取图像的局部特征,池化层用于减小特征图的尺寸和数量,全连接层用于将特征向量映射到分类结果。
2023-03-26 19:53:27
208
原创 深度学习课程学习笔记
卷积神经网络卷积神经网络(Convolutional Neural Network,CNN)是一种深度学习模型,主要用于图像识别、语音识别和自然语言处理等领域。其基本原理是通过卷积、池化和全连接等操作,对输入数据进行特征提取和分类。卷积神经网络的基本结构如下图所示:卷积神经网络由多个卷积层、池化层和全连接层组成。其训练过程通常使用反向传播算法和随机梯度下降法进行优化。反向传播算法用于计算模型的梯度,随机梯度下降算法用于更新模型的参数。通过反复迭代训练,卷积神经网络可以自动学习输入数据的特征,并提高分
2023-03-25 20:51:38
122
原创 深度学习课程学习笔记1
动量法和自适应梯度法都是常用的加速神经网络训练的方法。动量法通过引入动量因子来改善收敛速度,避免陷入局部极小值;而自适应梯度法通过动态调整学习率来提高网络的性能。
2023-03-18 12:46:13
177
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人