自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 【22-23 春学期】AI作业6-误差反向传播

反向传播算法的基本原理是计算神经网络中各个神经元的误差贡献,并将误差向后传播到较早的、更多的神经元,从而计算之前隐藏层和输入层的权值更新。具体地,反向传播算法首先计算网络输出与目标之间的误差,然后使用误差链规则将误差反向地传递到每个神经元,并计算每个神经元的梯度值,最后使用梯度下降法更新神经网络参数,使它们逐渐收敛到一个较优值。反向传播是一种用于训练神经网络的优化算法,其主要思想是根据输出与目标之间的误差通过误差反向传播的方式来更新神经网络的权重参数,从而达到优化预测准确率的目的。

2023-06-25 14:51:57 84

原创 【22-23 春学期】AI作业9-卷积3-XO识别

feature_map[i] = np.zeros((feature_map_h, feature_map_w)) # 初始化特征图。relu_map[i] = np.zeros((relu_map_h, relu_map_w)) # 初始化特征图。img = feature_pool_1.data.squeeze().numpy() # 将输出转换为图片的格式。img = feature_relu1.data.squeeze().numpy() # 将输出转换为图片的格式。

2023-06-25 14:38:56 71

原创 【22-23 春学期】AI作业7-卷积

在卷积操作中,卷积核会在数据的空间维度(通常是二维的图像数据或三维的立体数据)上滑动,对输入数据进行卷积操作,得到输出结果。此外,对于具有相同卷积核大小的不同数量的卷积核,可以通过并行计算同时提取多个特征来提高模型的表达能力。对于3x3卷积核,它能够从输入数据中提取出相对较小的特征,比如边缘、角点等。而对于5x5卷积核,它的视野范围相对较大,能够看到更多的上下文信息,从而能够提取出更加全局的特征。特征图是卷积操作的输出结果,它可以看作是对输入数据的抽象和提取,其中每个元素表示经过卷积核提取出的某种特征。

2023-06-25 13:58:59 76

原创 【22-23 春学期】AI作业8-卷积2

高级特征则是指深度网络中较深层次的特征表达,具有更高级别、更抽象的语义信息,包括目标的更抽象、更高级别的特征,如目标的部分组件、物体的轮廓和形态等。步长定义了卷积核在进行卷积过程中每次移动的步长大小,填充是在对数据进行卷积操作之前,在数据的边缘周围填充一些数据,这样可以保证输入和输出的维度大小一致,同时也可以避免信息在边缘处的丢失。在深度学习中,充分利用低级特征、中级特征和高级特征,并合理地整合它们,可以使得模型能够提取到具有语义上下文关系的图像特征,从而得到更好的模型性能。

2023-06-25 13:55:03 69

原创 【22-23 春学期】AI作业11-RNN

1. 前馈网络存在的问题2. 序列数据3. 循环神经网络(RNN)为什么能解决前馈网络中的问题4. 卷积神经网络(CNN)与循环神经网络(RNN)的异同5. 沿时间反向传播算法(BPTT)6. 序列到序列模型 seq2seq7. 梯度消失、梯度爆炸

2023-06-25 13:53:20 105

原创 【22-23 春学期】AI作业10-经典卷积网络

ResNet通过引入残差块(Residual Block)来处理神经网络中的梯度消失和网络深度增加时的性能下降问题,使得神经网络可以训练更深的层数,从而在图像分类、物体检测、语音识别等任务中取得了极好的结果。总之,AlexNet提出了较深的神经网络结构和有效的训练技巧,为后续卷积神经网络的发展奠定了基础,在图像分类领域的广泛应用中具有重要意义。总之,AlexNet提出了较深的神经网络结构和有效的训练技巧,为后续卷积神经网络的发展奠定了基础,在图像分类领域的广泛应用中具有重要意义。

2023-06-25 13:52:05 56

原创 【22-23 春学期】AI作业12-LSTM

1.长短期记忆网络 LSTM(输入门、遗忘门、输出门)2.LSTM如何克服梯度消失3.门控循环单元神经网络 GRU(更新门、重置门)

2023-06-25 13:48:38 54

原创 AI作业5-深度学习基础

人工智能、机器学习、深度学习之间的关系神经网络与深度学习的关系“深度学习”和“传统浅层学习”的区别和联系神经元、人工神经元MP模型单层感知机 SLP异或问题 XOR多层感知机 MLP前馈神经网络 FNN激活函数 Activation Function为什么要使用激活函数?常用激活函数有哪些?均方误差和交叉熵损失函数,哪个适合于分类?哪个适合于回归?为什么?

2023-04-19 12:54:05 96

原创 AI作业4-无监督学习

K均值聚类 K均值聚类是生成式还是判别式方法?KNN VS. K-means主成分分析LDA VS. PCA奇异值分解(SVD)特征人脸方法(Eigenface)潜在语义分析 (LSA)期望最大化算法(EM)K-means是最简单的EM算法?编程实现EM算法

2023-04-04 20:38:01 93

原创 AI-作业3

集成学习;支持向量机;软间隔;核函数;VC维;生成式模型与判别式模型;监督学习/无监督学习与生成式/判别式方法的关系;分类/聚类与生成式/判别式方法的关系;KNN,K-means

2023-03-28 21:22:55 302

原创 AI-作业2

结构风险最小化;正则化;线性回归;逻辑斯蒂回归;Sigmoid 与 SoftMax 函数;决策树;信息熵 条件熵 信息增益;线性判别分析 LDA;概率近似正确 PAC;自适应提升AdaBoost

2023-03-21 20:24:48 69

原创 AI-作业1

监督学习,无监督学习;分类,回归;聚类,降维;损失函数;训练集、测试集和验证集;过拟合,欠拟合;经验风险,期望风险;

2023-03-15 11:11:05 182 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除