![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
钉马掌的小铁匠
这个作者很懒,什么都没留下…
展开
-
Z-Score:定义,公式 和 数据标准化
一、 什么是 Z-Score?z-score 也叫 standard score, 用于评估样本点到总体均值的距离。z-score主要的应用是测量原始数据与数据总体均值相差多少个标准差。z-score是比较测试结果与正常结果的一种方法。测试与调查的结果往往有不同的单位和意义,简单地从结果本身来看可能毫无意义。当我们知道小明数学考了90分(满分100),我们也许会认为这是一个好消息,但是如果我们拿小明的成绩与班上平均成绩相比较,我们也许会深感惋惜。z-score可以告诉我们小明数学成绩和总体数学平均成绩的原创 2020-12-08 17:07:20 · 65300 阅读 · 2 评论 -
domain adaptation 之 cycleGAN
之前写的两篇博客《domain adaptation 之 domain adversarial learning(一)》和《domain adaptation 之 domain adversarial learning (二)》使用对抗生成网络(GAN)寻找域不变性特征或拉近特征域距离都是在CNN 深度特征映射空间中进行的,本文介绍的方法是如何从源域生成一批目标域的数据集。一、cycleGAN介绍cycleGAN是一个图像到图像的对抗生成训练网络,可以很好地迁移图像风格。cycleGAN具有很好的普适性原创 2020-08-29 21:55:51 · 885 阅读 · 0 评论 -
domain adaptation 之 domain adversarial learning (二)
正如《domian adaptation 之 domain adversarial learning (一)》中介绍的,设计一个 domain adversarial learning 的新方法被简化为以下三个问题:是否选择基于生成或者辨别的网络;是否共享网络权重;选择哪一个对抗学习目标。为了拉近两个域之间的距离,可以共享网络参数也可以选择不共享网络参数;但是当特征生成器生成的源域特征固定,并使用网络提取的目标域特征模仿提取的源域特征时,需要固定源域特征生成器的参数并调整目标域特征生成器的参数。原创 2020-08-07 17:03:15 · 645 阅读 · 0 评论 -
domain adaptation 之 domain adversarial learning (一)
通过对抗性学习学习域之间的不变性是域适应中的一个策略。如何去设计一个新方法对域进行适应被简化为三个问题:是否选择基于生成或者辨别的网络;是否共享网络权重;选择哪一个对抗学习目标。论文[1]中介绍了一种域自适应方法,该方法使用了生成对抗网络,共享了网络权重,并选择GRL (gradient reversal layer)学习域之间的不变性特征。接下来对论文[1]进行介绍。该论文的目的是对显微镜图像(microscopy images, MSI) 进行分类,但是显微镜图像是没有标注的,但是整张切片原创 2020-08-07 14:44:37 · 1789 阅读 · 0 评论 -
domain adaptation 之 Maximun Mean discrepancy (一)
一、小数据集的过拟合问题我们现在了解到的是深度学习适合于大规模数据的应用,而在小规模的数据上易出现过拟合。深度学习的特点是它擅于记忆,它能非常出色地基础训练数据的数据特征,从而在训练的数据上表现优异。在针对特定任务时,大规模的数据往往能涵盖特征空间的绝大部分,此时的训练集的特征空间往往与验证集的特征空间高度重合,深度学习模型在记住训练集特征的同时也就记住了验证集特征,以至于在训练集表现优秀的模型在验证集数据上也能表现很好。但是小规模的数据集通常只占据特定任务特征空间的一部分,此时划分的训练集和验证集的特征原创 2020-08-06 11:31:07 · 457 阅读 · 0 评论 -
一文看懂 序列最小最优化算法---SMO
一、SMO的背景介绍序列最小最优化算法(sequential minimal optimization,SMO)于1998年被John Platt发明,是一种用于解决支持向量机训练期间出现的二次规划问题的算法。在SMO之前也有一些算法用于解决此类问题,但是这些算法都比较复杂,所以高效的SMO提出之时就在SVM社区引起了一阵轰动。二、从SVM说起—SMO要解决什么如何优化SVM的参数?首先我们通过拉格朗日乘子法建立拉格朗日函数,再根据拉格朗日的对偶性求解极大极小值问题。这些,我已经在《支持向量机一:线性原创 2020-06-23 19:22:12 · 1819 阅读 · 0 评论 -
支持向量机 二 :非线性支持向量机
为什么要用非线性支持向量机?线性支持向量机不香吗?为什么还要用非线性支持向量机?线性支持向量机香是香,但并不适合大多数数据集啊。比如下图这个数据,使用线性SVM就无法划分。...原创 2020-06-18 17:19:58 · 438 阅读 · 0 评论 -
支持向量机 一 :线性支持向量机介绍
SMO简介序列最小最优化算法(sequential minimal optimization,SMO)用于解决二次规划问题,其被提出的目的是解决支持向量机(support vector machines,SVM)的优化问题。SMO于1998年被John Platt提出,当时在SVM研究者的圈子里引起了很大的轰动,因为之前的优化算法都比较复杂并且低效。SVM简介这里简单介绍一下SVM,因为SMO的提出来自对SVM的求解。假设我们有一组数据集D={(x1,y1),(x2,y2),...,(xn,yn)}原创 2020-06-16 16:43:00 · 442 阅读 · 0 评论 -
半监督学习下的条件熵与交叉熵
问题描述.对于有监督学习,我们有数据集 Dl={(xi,yi)∣i=1,2,3,…,n}D_l = \{(x_i,y_i)|i = 1,2,3,…,n\}Dl={(xi,yi)∣i=1,2,3,…,n},其中 xi∈Rdx_i ∈ R^dxi∈Rd , yiy_iyi是监督信号,yi∈{y1,y2,…,yk}y_i∈\{y_1,y_2,…,y_k\}yi∈{y1,y2,…,y...原创 2019-12-12 16:01:23 · 1252 阅读 · 0 评论