自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 人工智能第十二次作业

LSTM遗忘门值可以选择在[0,1]之间,可以选择接近1,让遗忘门饱和,此时远距离信息梯度不消失,梯度能够很好的在LSTM中传递,也可以选择接近0,此时模型是故意阻断梯度流,遗忘之前信息,说明上一时刻的信息对当前时刻没有影响。长短期记忆网络是RNN循环神经网络的一种改进方法,是为了解决一般的RNN(循环神经网络)存在的长期以来问题而专门设计出来的,在NLP领域具有很重要的作用。更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的值越大说明前一时刻的状态信息带入越多。

2023-06-24 21:31:50 98 1

原创 人工智能第十一次作业

梯度消失是指当神经网络层数增多时,越靠近输入层的层之间的权重无法得到有效修正(导数趋于0),从而得到神经网络效果不好。不同:卷积神经网络的输入数据是空间数据,并且是独立的,输入的大小也是固定的,用于计算机视觉方面。循环神经网络的输入数据是序列数据,且是相关的,输入序列变长,用于自然语言处理方面。循环神经网络是一类处理序列数据时所采用的网络结构,它会在学习中记住部分已经出现的信息,并利用所记住的信息影响后续结点的输出。有先后次序的一组数据,可分为时间序列,符号序列和生物序列。1、前馈网络存在的问题。

2023-06-24 21:11:45 134 1

原创 人工智能第十次作业

CIFAR起初的数据集共分10类,CIFAR共包含60000张32*32的彩色图像(包含50000张训练图片,10000张测试图片),其中没有任何类型重叠的情况。VGG Net具有更小的卷积核和更深的网络结构。并且将有权重的层叠加至16或19层,根据层的深度,称“VGG16”或“VGG19”。inception的提出从另一种角度来提升训练结果:能更高效的利用计算资源,在相同的计算量下能提取到更多的特征,从而提升训练结果。在相同尺寸的感受野中叠加更多的卷积,能提取到更丰富的特征,并且降低了计算复杂度。

2023-05-24 01:24:45 76

原创 人工智能第九次作业

Pytorch版本:调用函数完成 卷积-池化-激活。For循环版本:手工实现 卷积-池化-激活。可视化:了解数字与图像之间的关系。

2023-05-24 00:40:07 78

原创 人工智能第八次作业

局部感知:神经元没必要对全局图像进行感知,只需对局部进行感知,在更高的层次将局部信息综合起来得到全局信息。步长:当卷积核在图像上面进行卷积操作的时候,每次卷积跨越的长度。权值共享:卷积核里的数值就是权值,权值共享用同一个卷积核权值。低级特征:低级特征包含图像的底层信息,如颜色,纹理等。对特征图进行约减,保留特征图的主要信息,实现下采样。输出的特征图的像素点在输入图像上映射的区域大小。高级特征:高级特征往往包含对象内在的语义信息。4、池化(子采样、降采样、汇聚)5、低级特征、中级特征、高级特征。

2023-05-16 23:08:13 96

原创 人工智能第七次作业

多通道图像是指多个摄像机拍摄的同一个场景的图像或者一个摄像机在不同时刻拍摄的同一场景的图像。边缘检测的卷积核作用:使用边缘检测卷积核可以有效识别图像的边缘,边缘检测的目的是标识数字图像中亮度变化明显的点。卷积核就是图像处理时,给定输入图像,输入图像中一个小区域中像素加权平均后成为输出图像中的每个对应像素,其中权值由一个函数定义,这个函数称为卷积核。边缘检测的目的就是找到图像中亮度变化剧烈的像素点构成的集合,表现出来往往是轮廓。1、简单描述卷积、卷积核、多通道、特征图、特征选择概念。常用于图像的特征提取。

2023-05-06 00:38:22 61

原创 人工智能第六次作业

梯度下降是迭代法的一种,可以用于求解最小二乘问题。沿着梯度的方向,误差下降最快。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一。反向传播算法适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上。它的信息处理能力来源于简单非线性函数的多次复合,因此具有很强的函数复现能力。计算图是描述计算结构的一种图,它的元素包括节点和边,节点表示变量,可以是标量、矢量、张量等,而边表示的是某个操作,即函数。4、使用Numpy编程实现例题。

2023-05-06 00:00:04 56

原创 人工智能第五次作业

人工神经元:人工神经元是对生物神经元的一种形式化描述,它对生物神经元的信息处理过程进行抽象,并用数学语言予以描述;人工智能是一个领域,机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术。神经网络是模型,深度学习是一种学习方法,神经网络可以看成是一种特殊的深度学习。由输入层、输出层、以及至少一个隐藏层组成,中间是隐藏层,外部不可见。Softmax函数,Sigmoid函数,Tanh函数,Relu函数。对输入进行线性加权求和,判断与一个值的大小,输出不同的数。相同为零,不同为一,线性不可分。

2023-04-19 00:02:27 45

原创 人工智能第四次作业

K-means算法是将样本聚类成k个簇,EM算法:E步就是估计隐含类别y的期望值,M步调整其他参数使得在给定类别y的情况下,极大似然估计P(x,y)能够达到极大值。然后在其他参数确定的情况下,重新估计y,周而复始,直至收敛。LDA是有监督的降维方法,最多降到类别数k-1的维数,PCA是无监督的降维方法,主要以方差衡量数据。它是一种聚类算法,属于无监督学习算法,目标是将n个d维的数据划分为K个聚簇,使得簇内方差最小化。K-means是无监督学习,解决的是聚类问题,K-means通过算法将数据集划分为K类。

2023-04-11 23:17:47 135

原创 人工智能第三次作业

分类既是判别方法,也是生成方式。KNN是判别式方法,K-means是生成式方法。用生成模型学习一个联合分布概率,将测试用例放到各个模型中,比较结果,选择最优的。10、分类是判别式方法,聚类是生成式方法?生成式模型优点:生成模型能更快地收敛于真实模型。判别式模型优点:准确率往往较生成模型高。9、监督学习是判别式方法,无监督学习是生成式方法?用判别模型学习一个条件分布概率,预测概率结果。将多个分类方法聚集在一起,提高分类的准确性。8、生成式模型和判别式模型各有什么优缺点?生成式模型缺点:需要更多的样本与计算。

2023-04-09 18:14:49 100

原创 人工智能第二次作业

线性判别分析(linear discriminant analysis,LDA)是对费舍尔的线性鉴别方法的归纳,试图找到两类物体或事件的特征的一个线性组合,以能够特征化或区分它们。逻辑斯谛回归是经典的分类方法,它属于对数线性模型,原理是根据现有的数据对分类边界线建立回归公式,以此进行分类。AdaBoost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个最强的最终分类器(强分类器)。将输入变量映射到连续输出空间,满足线性函数,为线性回归。

2023-03-21 23:55:30 110

原创 人工智能第一次作业

2023-03-15 12:26:03 44 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除