自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 RNN原理及输入输出

循环神经网络(Recurrent Neural Neural Networks, RNN),是一种反馈网络。它可以有效处理序列特性的数据,能够挖掘数据中的时序信息以及语义信息。常用于语言识别、机器翻译、视频分析、生成图像描述的等。RNN主要用于时序类数据的处理,在文档分类、机器翻译、文本情感分析、文本预测等有着重要作用。

2022-10-24 14:50:59 4759 1

原创 决策树算法

决策树是构建树型分类器来实现回归或者分类任务,具有可解释性强,简单易理解等优点。决策树是一个有监督的机器学习模型。决策树的基本思想是每次选择一个属性作为划分标准,且这个经过这个属性划分后模型的熵要降低的最多。熵降低的越快越好,生成的决策树高度也越浅。

2022-10-20 23:29:10 430

原创 TF-IDF和TextRank

N表示文档总个数,I(w,Di)用来衡量关键词w是否在第i个文档中出现,出现时取值为1,不出现时取值为0。由公式可知,IDF反应一个词的普遍程度-当一个词越普遍(即大量文档中都包含这个词时),IDF值越小。其中count(w)为关键词w在目标文档(查询)中出现的次数,Di表示该文档中出现的词的总个数。2、TF-IDF兼顾词频和新鲜度,会过滤掉一些常见词,保存能够给目标文档提供更多信息的重要词。1、当一个词在文档中频率越高并且新鲜度高(即普遍度低),其TF-IDF越大。TextRank简介。

2022-09-21 15:40:27 329

原创 inception网络

eg输入图片的大小为28*28*192,使用1*1的卷积核,则输出结果为28*28*某个值(卷积核的个数),假设卷积核个数为64,则输出为28*28*64,同时我们也使用了3*3的卷积核,保证sameconv,输出结果为28*28*128,然后把第二个值堆积到第一个值之上。使用inception模块的一个问题就是每个卷积层的计算成本会非常大,因此我们可以在计算每个卷积层之前使用1*1的卷积核,也叫瓶颈层,是网络中最小的部分,这样可以减小输入的通道数目,从而大大降低后续的计算成本。...

2022-08-02 17:45:00 357

原创 卷积神经网络实例

AlexNet首先使用一张227*227*3的图片作为输入,第一层使用96个11*11的过滤器,步长s=4,输出的尺寸为55*55*96,然后用3*3的过滤层进行最大化池化操作,s=2,卷积层的尺寸缩小为27*27*96((55-3)/2+1)=27。使用6个5*5*1(过滤器的通道数一定要和输入图像的通道数目保持一致),步长为1,padding数为0,则输出的图像大小为28*28*6,然后进行池化操作,f=2,s=2,池化后的图像大小为14*14*6(池化不会改变通道数大小)。vgg网络结构示意图。...

2022-07-30 06:45:00 1185

原创 卷积神经网络中的池化层和全连接层

输入的每一个特征都与输出的特征相连接,我们要对W和b进行学习。全连接层可以有多层。稀疏连接输出层的某个数字只被输入层特定数目的特征决定,而与剩下的特征无关。也就是说,输出的特征并没有与输入的特征进行“全连接”,这也减小了需要训练的参数数目。参数共享既然过滤层能够识别出图片中某一部分的某个特征,那么它也能应用于图片中另一部分的相同的特征,这样就实现了参数共享。池化层作用提取卷积后图片中的主要特征,缩小图片的维度,减小输出时的计算量。卷积层参数个数较少,池化层没有新的参数,主要的参数集中在全连接层。...

2022-07-28 14:39:25 879

原创 卷积的padding操作

1)在不使用padding的情况下,每次卷积后的图片会越变越小。比如初始图片大小为6*6(n*n),过滤器大小为3*3(f*f),则卷积后的矩阵大小为4*4(n-f+1)*(n-f+1)。比如在原始图像周围加上一层像素点(p=1),则卷积后的图片大小为6*6(n+2*p-f+1)*(n+2*p-f+1)。则有n+2p-f+1=n,则有p=(f-1)/2。(2)如果不使用padding,四个角上的像素点只参与一次卷积运算,而最中间的像素点会参加多次运算。(3)也可以按自身需求指定p的大小。......

2022-07-26 16:40:17 1742

原创 多层神经网络实现猫图片的二分类问题

一、作业概述本次作业要利用多层神经网络实现猫咪图片的二分类问题。其中训练集共有图片209张,测试集共有图片50张。隐藏层数量为一层,隐藏层上的神经元个数为5个。隐藏层的激活函数采用Relu函数,输出层的激活函数为sigmoid函数。二、完成步骤1、数据预处理要将图片转化为向量。每张图片的大小为64*64色素点,每个色素点由RGB三原色组成,所以每张图片需要64*64*3=12288个数据点确定。所以训练集图片数据维度为(12288,209)。而由于此问题是二分类问题,故输出的标签只有0-1两

2022-05-26 15:01:28 595

原创 吴恩达深度学习第一部分第二周作业

1、数据说明本次训练集共有209张图片。每张图片的大小为64*64色素点,每个色素点由RGB三原色组成,所以每张图片的数据维度为(64,64,3)。训练集的数据维数为(209,64,64,3)。测试集共有50张图片,数据维数为(50,64,64,3)。2、数据预处理import h5pyimport numpy as npfrom d2l import torch as d2limport osos.environ["KMP_DUPLICATE_LIB_OK"]="TRUE"def

2022-05-19 23:29:02 252

原创 激活函数的选择

1、sigmoid函数:特点:输出值落于0-1的连续区间内,sigmoid函数的导数位于0-0.25的连续区间内,其在0处取得导数最大值为0.25。局限性:在逆向传播中使用链式求导法则对神经网络模型中的权重调整幅度进行计算时,多个较小的梯度相乘后,会严重影响神经网络参数的调整,第一层的初始权重很难通过反向传播发生变化,容易出现梯度消失的状况。另外sigmoid函数在进行指数计算时需要消耗较多的算力资源,因此在平时的神经网络中较少使用sigmoid激活函数。2、Tanh激活函数:特点:输出值落

2022-05-16 23:31:38 3629

原创 跟李沐学深度学习-线性回归

import randomimport torchfrom d2l import torch as d2ldef synthtic_data(w,b,num_examples): X=torch.normal(0,1,(num_examples,len(w))) y=torch.matmul(X,w)+b y+=torch.normal(0,0.01,y.shape)#给y加上一个随机噪音 return X,y.reshape(-1,1)true_w=...

2022-05-11 15:13:18 456

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除