machine learning
Regnaiq
只是一个学生, 学无止境. 慢慢来, 比较快.
展开
-
Keras指定model.fit()的输出
当verbose=1的时候会打印出所有指标和loss, 在多输出的情况下更是一团乱麻.函数, 然后利用callbacks调用即可.原创 2023-08-08 10:36:01 · 682 阅读 · 0 评论 -
白话VAE(Variational Autoencoder)变分自编码器
VAE, 全称Variational Autoencoder, 可以看出它是autoencoder的一种.autoencoder主要用来提取特征, 重构出和原来的数据.这里VAE是变分自编码器, 变在哪里呢?下面举个例子.假如目前天上有一个月亮, 还有一个和月亮差不多的星星. 他们都会随着时间变化, 有时候不太容易分清楚到底哪个是月亮, 哪个是星星. 那么我们需要构建一个分类模型, 来判断我...原创 2020-04-16 13:13:25 · 1118 阅读 · 0 评论 -
RBM受限玻尔兹曼机的一点理解
RBM是玻尔兹曼机的一种,每一个layer之间的node没有相连。一个很好的介绍看这里,是一个intuitive的introduction.RBM最重要的一点就是只有两层,两层之间即可以向前传播,又可以向后传播,目的是令重构出的input最好。所以往往用于特征提取。老师在上课的时候给了一个生理学上的例子,就是说你会在梦里梦到一个陌生人,但是陌生人的五官清晰,音容笑貌也很生动。既然你脑子里没有...原创 2019-11-10 21:12:10 · 333 阅读 · 0 评论 -
Decision tree 与 Deep learning
deep learning 在本质上也是一种树状的结构,只是树枝之间比较交错。这两者本质上都是对特征进行了某种处理,然后再加上了一个分类器来完成分类。但是其区别在于,决策树是在原有的特征空间做了特征选择,选取的特征只是原来特征空间的一个子集,并不会改变特征;但深度学习是对特征进行了某种变换,映射到了另外的特征空间。准确来说做的是在原特征上做了特征的变换提取。而且对于CNN来说,因为用了多个k...原创 2019-11-09 11:20:39 · 342 阅读 · 0 评论 -
几种不常见的machine learning: one class/reinforcement/few shot/example based learning
one class learningreinforcement learningfew shot learningexample based learning原创 2019-11-02 17:19:01 · 440 阅读 · 0 评论 -
上采样upsampling, 反池化unpooling, 转置卷积deconvolution
文章目录upsampling 上采样unpooling 反池化deconvolution 转置卷积deconvolution的应用总结upsampling 上采样可以翻译为上采样,与下采样对应,是一种增大图片分辨率的技术的统称。最常见的技术为插值,即把分辨率低的图片放大到需要的大小,再用插值的方法补齐像素的值。unpooling 反池化unpooling与pooling相对,那么可以翻译...原创 2019-09-22 20:44:10 · 1363 阅读 · 0 评论 -
深度学习中卷积后的feature map和感受野(receptive fields)大小计算
文章目录卷积后Feature map大小的计算感受野感受野是什么?感受野的计算影响感受野大小的因素卷积后Feature map大小的计算假设上一层feature map的大小是FnF_{n}Fn, 那么我们可以用下面的公式来计算下一层卷积后feature map的大小Fn+1F_{n+1}Fn+1:Fn+1=Fn−ksizestride+1F_{n+1}=\frac{F_{n}-ksiz...原创 2019-09-21 13:04:21 · 758 阅读 · 0 评论 -
机器学习之平行坐标图 Parallel coordinates plot
Parallel coordinates plot是用来做特征选择的一个方法。主要解决了在多维(大于三维)情况下数据特征无法可视化的问题。图种每个竖线代表一个特征,上面的点代表该特征的值,每个样本表示出来就是一个贯穿所有竖线的折线图。一般来说,用不同的颜色代表不同的类别,这样可以方便的看出不同特征对分类的影响。有以下两个原则;主要看相同颜色的折线是否集中,若在某个属性上相同颜色折线较为集...原创 2018-12-26 16:46:48 · 11432 阅读 · 0 评论 -
Accuracy,Percision,Recall,Fb-Score
在论文阅读的evaluation部分中,经常会看到Accuracy和Precision的评价指标。两者是否是同一事物呢? 先看一段英文解释:In the fields of engineering, industry and statistics, the accuracy of a measurement system is the degree of closeness of measureme原创 2017-12-27 19:51:45 · 1115 阅读 · 0 评论 -
集成学习概述(二)随机子空间 Random subspace method and stacking
六、随机子空间 Random subspace methodRandom subspace method(RSM)又叫attribute bagging 或者 feature bagging,是集成学习的一种。随机子空间通过使用随机的部分特征而不是所有的特征来训练每个分类器,来降低每个分类器之间的相关性。类似bagging, bagging是随机使用部分训练数据,而Random subs原创 2017-02-09 16:21:06 · 13386 阅读 · 0 评论 -
特征抽取与特征选择
特征抽取:特征抽取后的新特征是原来特征的一个映射特征选择:特征选择后的特征是原来特征的一个子集特征抽取的方法主要是通过属性间的关系,如组合不同的属性得到新的属性,这样就改变了原来的特征空间。特征选择的方法是从原始特征数据集中选择出子集,是一种包含关系,没有改变原始的特征空间。特征抽取:PCA和LDA主要有两个类别:信号表示:特转载 2017-02-23 19:02:27 · 768 阅读 · 0 评论 -
集成学习概述(一)introduction of ensemble learning
一.概念性介绍, 集成学习(ensemble learning),又被叫做多分类器系统(multi-classifer system,注意停顿,多,分类器,也即多个分类器的意思)或者基于委员会的学习(committee-based learning)。个体学习器可以是同种类型的学习器,此时个体学习器通常又被称作基学习器(base learner),也可以使用不同种学习器,此时个体学原创 2017-02-09 16:18:24 · 1845 阅读 · 0 评论