自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 Android Studio修改Standard到Custom模式的方法

这次安装Android Studio时没有照着教程安装,在选择setup模式的时候选择了Standard模式,之后C盘差点爆炸,尝试卸载之后下载重新选择Custom模式,发现不出现弹窗。

2024-06-24 15:10:20 202

原创 机器学习--Transformer 2

紧接上篇介绍一下Transformer的解码器。

2024-03-11 20:26:52 1313 1

原创 机器学习--Transformer 1

Transformer 是一个基于自注意力的序列到序列模型,与基于循环神经网络的序列到序列模型不同,其可以能够并行计算。

2024-03-11 20:25:45 1646 1

原创 机器学习--循环神经网络(RNN)4

(loss function)来评估模型的好坏,选一个参数要让损失最小。以槽填充为例,如上图所示,给定一些句子,给定一些标签,告诉机器说第一个单词它是属于 other 槽,“上海”是目的地槽,“on“属于 other 槽,“June”和“1st”属于时间槽。“抵达”丢到循环神经网络的时候,循环神经网络会得到一个输出 y1。接下来这个 y1会看它的。

2024-03-08 12:15:07 1038 1

原创 机器学习--循环神经网络(RNN)3

本篇文章结合具体的例子来介绍一下LSTM运算方式以及原理。请结合上篇文章的介绍食用。

2024-03-05 21:07:09 1274 2

原创 机器学习--循环神经网路(RNN)2

在这篇文章中,我们介绍一下其他的RNN。

2024-03-04 23:03:34 1010 2

原创 机器学习--循环神经网络(RNN)1

(Recurrent Neural Network)是深度学习领域中一种非常经典的网络结构,在现实生活中有着广泛的应用。以(slot filling)为例,如下图所示,假设订票系统听到用户说:“我想在 6 月 1 日抵达上海。”,系统有一些(slot):目的地和到达时间,系统要自动知道这边的每一个单词是属于哪一个槽,比如“上海”属于目的地槽,“6 月 1 号”属于到达时间槽。

2024-03-04 19:58:09 1034 1

原创 机器学习--自注意力机制4 比较

自注意力还可以被用在图像上。到目前为止,在提到自注意力的时候,自注意力适用的范围是输入为一组向量的时候。一张图像可以看作是一个向量序列,如图所示,一张分辨率为 5 × 10 的图像可以表示为一个大小为 5 × 10 × 3 的张量,3 代表 RGB 这 3 个通道(channel),每一个位置的像素可看作是一个三维的向量,整张图像是5 × 10 个向量。所以可以换一个角度来看图像,图像其实也是一个向量序列,它既然也是一个向量序列,完全可以用自注意力来处理一张图像。?

2024-03-02 21:16:04 892

原创 机器学习--自注意力机制3 进阶

自注意力有一个进阶的版本——多头自注意力的使用是非常广泛的,在翻译、语音识别,用比较多的头可以得到比较好的结果。至于需要用多少的头,这个又是另外一个(需要我们自己设置与调节)在使用自注意力计算相关性的时候,就是用 q 去找相关的 k。相关有很多种不同的形式,所以可以有多个 q,不同的 q 负责不同种类的相关性,这就是多头注意力。如图所示,先把 a 乘上一个矩阵得到 q,接下来再把 q 乘上另外两个矩阵,分别得到q1、q2。

2024-03-02 17:56:34 1126

原创 机器学习--自注意机制2 运作原理

我们就先只讲第一个类型:输入跟输出数量一样多的状况,以序列标注(sequence labeling)为例。序列标注要给序列里面的每一个向量一个标签。虽然输入是一个序列,但可以不要管它是不是一个序列,各个击破,把每一个向量分别输入到全连接网络里面得到输出。这种做法有非常大的瑕疵,以词性标注为例,给机器一个句子:I saw a saw。对于全连接网络,这个句子中的两个 saw 完全一模一样,它们是同一个词汇。既然全连接网络输入同一个词汇,它没有理由输出不同的东西。

2024-02-28 21:43:24 872 1

原创 机器学习--自注意力机制1 引入

截至目前,我们讨论的都是网络的输入为一个向量的情况,如果是回归问题,输出是一个标量,如果是分类问题,输出是一个类别。当输入是一组向量,并且输入的向量的数量是会改变的,即每次模型输入的序列长度都不一样,这个时候应该要怎么处理呢?

2024-02-28 20:40:32 822 1

原创 机器学习--卷积神经网络3

把一张比较大的图像做),把图像偶数的列都拿掉,奇数的行都拿掉,图像变成为原来的 1/4,但是不会影响里面是什么东西。如图,把一张大的鸟的图像缩小,这张小的图像还是一只鸟。

2024-02-11 14:24:46 411 1

原创 机器学习--卷积神经网络2

全连接网络是弹性最大的,可以决定它看整张图像还是只看一个范围。如果它只想看一个范围,可以把很多权重设成 0。全连接层(fully-connected layer )可以自己决定看整张图像还是一个小范围。但加上感受野的概念以后,只能看一个小范围,网络的弹性是变小的。参数共享又进一步限制了网络的弹性。本来在学习的时候,每个神经元可以各自有不同的参数,它们可以学出相同的参数,也可以有不一样的参数。但是加入参数共享以后,某一些神经元无论如何参数都要一模一样的,这又增加了对神经元的限制。感受野加上参数共享就是。

2024-02-11 14:08:30 865 1

原创 机器学习--卷积神经网络1

根据观察 1 可以做第 1 个简化,卷积神经网络会设定一个区域,即感受野(receptive field),每个神经元都只关心自己的感受野里面发生的事情,感受野是由我们自己决定的。

2024-02-10 20:34:11 787 1

原创 机器学习--神经网络训练:Loss函数对于优化的影响

将各个class定义为一个个向量,当然我们的feature值也是输入一个向量,通过regression得到一个y,也是一个向量来表示预测值。但是这个数据是不是这个类别,只有0和1两种取值,所以我们用一个softmax函数将得到的预测值y转换为0和1之间的某个值,具体举一个可能的例子,用预测值去除以所有预测值的总和来吧每个预测值变到0和1之间的某个数。

2023-10-28 17:38:48 147 2

原创 机器学习--神经网络训练:学习速率自我调节

现在我们的优化方式是通过动量(考虑前面所有梯度的矢量和)来决定方向,Root Mean Square来表示大小,然后再配上学习速率衰减。

2023-10-28 13:32:51 133 1

原创 机器学习--神经网络训练:批次(batch)和动量(momentum)

之前介绍过了,把训练数据分为很多个batch,然后每个batch算梯度并更新,所有batch全部计算过一次为一个,在一个echo完成后下一个echo前,需要先进行(洗牌,打乱次序),即再次将训练数据重新分配,与之前的分配方式区别开。

2023-10-17 14:48:03 1703 2

原创 机器学习--神经网络训练:局部最小值和鞍点

在之前的机器学习中,我们学到模型的优化方式,如果在一点Loss函数降不下去了,那么说明我们在这个点(critical point)的梯度趋近于零。这个有两种情况,一种就是我们真正找到了(局部最小值),还有一种情况就是我们找到了一个(鞍点)如图所示,(想象你坐在这个马鞍上)这种情况我们按原来的优化方式可能就是我们的点在前后移动,但这时得到的Loss都比我们的saddle point要小,所以我们需要改进我们的优化方式,让我们的点左右移动,减小我们的Loss值。

2023-10-16 19:26:57 431 1

原创 机器学习模型效果不好时的分析

用训练数据训练自己写的函数,找到使Loss最小的参数组,用这个最小的参数组将需要预测的featrue放到函数中得到预测值y。

2023-10-10 16:30:51 642

原创 机器学习基本概念2

同上次讲的,给定一组参数的值,然后带入已知的feature值,算出的实际y与label的误差,最后算出L值。

2023-10-09 19:11:40 59 1

原创 机器学习基本概念1

Loss(b,w)Loss函数的作用是衡量这组数据的好坏具体的机制如下:将已知的一个x代入,得到一个预测的y值 y1y1和真实的y值(我们称之为Label)是有一定差距的我们算出误差 e1 = |y-y1| 同理我们算出已知的所有x值对应的误差en计算函数:看需求对计算方法进行选择如果y和y1都是几率分布的,使用交叉熵(Cross-entropy)用不同的w,b计算Loss画出等高线图,可以得到如下图的结果,我们把这种等高线图称为。

2023-09-29 21:12:35 107 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除