笔记
文章平均质量分 93
八岁爱玩耍
个人博客:https://aishangcengloua.github.io/
展开
-
机器学习(六)
文章目录一、生成式对抗网络(GAN)GeneratorDiscriminatorAlgorithm一、生成式对抗网络(GAN)在GAN之前我们学到的架构都是我们会给他一个x然后他经过神经网络之后输出一个y现在我们要把Network当作Generator来用,让网络自己产生一些东西,这样网络的输入不再是单单的x,还要加上一个Simple Distribution,然后输出是一个复杂的概率分布,我们就把这样的网络叫做GeneratorGenerator例子:让机器生成动漫人物脸,这里做的是Uncon原创 2021-10-23 20:51:44 · 1184 阅读 · 0 评论 -
机器学习(一) 机器学习概述
机器学习之深度学习学习笔记(一)文章目录机器学习之深度学习学习笔记(一)一、机器学习基本概念简介1.1机器学习的定义1.2函数的分类1.3如何寻找函数1.3.1定义函数1.3.2定义Loss函数1.3.3定义Optimization(优化函数)1.3.3.1假设只有w需要优化时1.3.3.2将b,w的方向组合在一起时1.4函数的修改1.4.1取多天的资讯进行训练二、深度学习基本概念简介2.1sigmoid函数定义2.2sigmoid函数如何逼近各种线段2.3建立更加弹性的函数2.3.1更多的Model F原创 2021-09-01 23:11:59 · 3259 阅读 · 2 评论 -
机器学习(二)机器学习任务
文章目录一、机器学习任务攻略1.1 Framework of ML1.2 提高结果的准确性1.2.1 Loss过大1.2.2 Loss足够小,但testing data的Loss过大二、局部最小值(local minima)与鞍点(saddle point)三、Batch和momentum3.1 Batch3.2 Momentum四、结语一、机器学习任务攻略1.1 Framework of ML神经网络一共包含三个模块:训练模块、验证模块、预测模块。其中训练和验证模块共用数据是Training dat原创 2021-09-08 20:42:51 · 1150 阅读 · 0 评论 -
机器学习(三) 前向传播
文章目录一、Learning rate前言1.1 不同的参数需要不同的learning rate1.1.1 Root Mean Square计算δ1.1.2 RMSProp计算δ1.2 检验结果二、ClassificationBatch Normalization三、结语一、Learning rate前言顾名思义,就是要给每个参数不同的learning rate,上一篇笔记中,我们提到了在沿着Loss函数我们可能会陷入local minima等一些gradient为零从而导致参数无法更新,Loss也就原创 2021-09-13 20:54:47 · 251 阅读 · 0 评论 -
机器学习(四) 卷积神经网络
文章目录一、卷积神经网络(CNN)1.1 Image Classification1.1.1 CNN的第一种解释1.1.2CNN的第二种解释1.1.3 两种方法的比较1.2 池化层(pooling)二、注意力机制(self-attention)一、卷积神经网络(CNN)CNN是专门被设计在影像上的,如图像分类1.1 Image Classification当我们对图像进行分类的时候,图像的大小可能是不一样的,所以我们把他们的形状变得一样再丢尽=进网络中进行训练。而对图像的表示方法,我们可以用独热向量原创 2021-09-25 15:54:31 · 648 阅读 · 0 评论 -
机器学习(五) 自监督学习
文章目录TransformerEncoder三级目录TransformerTransformer是Sequence-toSequence(Seq2Seq)的一个模型,我们之前在作一些实验的时候,当我们输入一个Sequence时,我们的输出也会是一个Sequence,而输入和输出结果的长度是一样的,当我们不知道输出结果是有多长时,我们便要机器自己决定要输出多长,这就会用到Seq2Seq,特别是在语音辨识及机器翻译中。一般的Seq2Seq模型是由Encoder和Decoder组成,Encoder接受外界原创 2021-10-09 09:56:48 · 732 阅读 · 2 评论