![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 84
Vinsmoke -Hou
这个作者很懒,什么都没留下…
展开
-
Sklearn fit , transform ,fit_transform
一、关于sklearn fit 和transformsklearn里的封装好的各种算法使用前都要fit;fit之后,可以调用各种API方法,transform是其中一个API;fit原义指的是安装、使适合的意思,有点train的含义,但是和train不同的是,它并不是一个训练的过程,而是一个适配的过程,过程都是确定的,最后得到一个可用于转换的有价值的信息。(目前可以简单理解为:fit获取了关于数据的有效信息,transform利用fit提供的有效信息进行特征转换)二、fit、transfor转载 2021-07-29 10:38:59 · 1220 阅读 · 0 评论 -
训练深度学习模型的小技巧
本文是B站李宏毅老师机器学习学习笔记。我们说的Deep Learning的三个步骤如下,但是模型在训练集和测试集上得到的结果不一定太好,如果是在训练集上得到的结果不理想,那么就是最后一步选择模型的时候出现问题;如果在训练集上良好,在测试集上结果不好,那就属于过拟合。Recipe of Deep Learning针对不同时间段出现问题的解决方法。训练集上结果不好的解决方法 换一个新的激活函数 梯度消失问题(Vanishing Gradient)当把网络结构构建的比较深的时原创 2020-05-16 18:03:35 · 666 阅读 · 0 评论 -
反向传播算法(BP)学习笔记
本文是学习B站李宏毅老师视频的心得,想看视频可以移步到b站。反向传播(Backpropagation)先介绍几个微分中复合函数的例子L是Loss Function,它是若干个L 的加和,若想要计算L的偏微分,则只需要先计算每一个l对w的偏微分,然后再加起来即可。两层网络之间的传输中,输入是x1和x2,经过一系列运算得到y1和y2。L对权重的偏微分可以表示如下得到的结论是:z对w的偏微分是输入值。Forward pass下面对上述结论举个例子。Bac..原创 2020-05-11 17:18:28 · 414 阅读 · 0 评论 -
逻辑回归(Logistic Regression)学习笔记
本文是b站上李宏毅老师课程的学习笔记,想看视频的同学可去b站直接搜索。逻辑回归(Logistic Regression) 逻辑回归模型如下 寻找最好的模型 假设现在有两个类别C1和C2,则对以下的训练集进行分类,可以得到的结果如下。其中x3属于C2,则X3的概率为1减去它属于C1的概率,因为f(x)计算的是属于C1的概率。能够使得概率最大化的参数是W*和b*。上图最后的式子取对数后,找概率最大时的参数,就是取反后找概率最小时的参数。我们在此设置当训...原创 2020-05-09 21:02:37 · 424 阅读 · 0 评论 -
深度自动编码器(Deep Auto-encoder)
深度自动编码器(Deep Auto-encoder)本文是学习B站上李宏毅老师的机器学习笔记。Auto-encoder它做的事情和PCA、t-SNE一样,都是要降维。只是这里用网络结构来降维,降维的网络被称为Encoder,这个Encoder就是很多个隐层网络的网络结构,输入一张图片后会输出降维以后的结果。这个结果比PCA的结果复杂是因为它不是一个线性的东西。通用有一个Decode...原创 2020-02-06 16:54:36 · 10994 阅读 · 4 评论