专业术语

深度学习专业术语

自己在看论文的过程中整理,大家可以参考一下。不对之处感谢指出。

corss-entropy:交叉熵。
隐变量latent

“隐”就是隐含的,也就是没有物理含义的变量或空间,需要由直接观测到的显变量通过数学计算或者模型假设产生的变量,一般不具备可解释性。

1.神经网络中,输入层与输出层都是物理世界中的真实数据有具体的含义,而中间的所有层都称之为影藏层,神经元都是隐节点。

2.在SVM中会将原始数据特征映射到高维空间,将线性不可分问题变成线性可分问题,映射空间也是隐空间。

Virtual Adversarial Training (VAT)

利用最小化原图像和变换之后图像之间的距离来使得预测不随图像的小变换而转变

流形-Manifold

嵌入高维空间的低维流形

domain adaptation (领域自适应)
low-level vision

low-level version: which concerns the extraction of image properties from the retinal image.
低级视觉:主要关注的是从视网膜图像中提取图像的特性。

middle-level vision

middle-level vision: which concerns the integration of image properties into perceptual organizations.
中级视觉:主要关注是将图像特性整合到知觉组织中。

high-level vision

high-level vision: which concerns the everyday functionality of perceptual organizations.
高级视觉:主要关注的是知觉组织的日常功能

representation learning

表示或者编码数据的一种形式,表示学习又叫特征学习(feature learning

本征图像**(**intrinsic image)
超平面

超平面是n维欧氏空间中余维度等于一的线性子空间,也就是必须是(n-1)维度。

欧几里德空间

就是在对现实空间规则抽象和推广,在欧几里得几何中平行线的任何位置间距相等。

决策面

将两类数据分割开的线,也叫决策面。

VAE
主动学习(active learning
众包(crowd sourcing )
outlier analysis离群点分析
Embedding

就是从原始数据提取出来的Feature,也就是那个通过神经网络映射之后的低维向量。对于图网络嵌入就是把节点和边的信息一起压缩到一个张量, 同时从这里面可以解码边的信息或者节点的信息

软聚类:

就是把数据以一定概率分到各类中。

硬聚类:

就是吧数据准确的分到某一类中。

Ground truth

正确值的意思,用来修正观测数据。

SVM support vector machines

支持向量机

二分类模型,基本模型是定义在特征空间上的间隔最大的线性分类器

拉格朗日乘子法

基本思想是把约束条件转化为新的目标函数,,从而使有约束问题转变为无约束问题。

拉格朗日对偶
梯度

函数的变化量,可以直观的叙述为包含变化方向和幅度的一个向量,

Meta learning(元学习)

核心就是让机器学会学习(learn to learn)学习新的task时候有新的model

life long learning

持续学习、不间断学习、增量学习,它是机器学习的一种学习方法

别称Continuous Learning、Never ending Learning、Incremental Learnin

泛化能力

值得是机器学习算法对新鲜样本的适应能力,

端到端

输入可以直接得到输出,而不需要预处理和特征提取。

端到端指的是输入是原始数据,输出是最后的结果 好比黑箱操作。

meta-learning 元学习,

multi-armed bandits(多臂老虎机)

为了完成识别新类(狗)的问题,于是需要新来一张标好 label 的样本(如 :有 label,样本是田园土狗, 称作 sample set 或 support set)用来泛化模型,那么再来 test 样本时候(如:无 label,样本是哈士奇,称作 query set 或者 test set),我们就可以把这个 哈士奇的样本 label 标出来,达到分类的目的。这种学习叫做 one-shot learning,即单样本学习。

one-shot learning,即单样本学习
few-shot

注: 把每个类别 yi 的单个样本换成 k个样本就 变成了k-shot learning , few-shot 一般指的是 k 不超过 20。

基于metric

该方法是对样本间距离分布进行建模,使得属于同类样本靠近,异类样本远离。

从字面上理解,N-Way就是N-路或N-类K-Shot就是K-次或K-个

每次在构建分类任务时,从数据集里抽取N-类的数据,每一类数据由K-个样本构成。这样就形成了一个小型分类任务的数据集,实际上就是原始数据集的一次采样。

未见过类别(unseen category)

或者叫不知道类别(unknown category)

对于学习算法F,其只在训练集中训练,且训练集包含的定义类别数为K,测试集定义类别数为N,且测试集中至少有一个类别是训练集中未定义的类别,我们把训练集与测试集定义类别的差集定义为未见过类别

EMD Earth Mover’s Distance:

测量两个分布之间的距离。

原型网络

原型网络就提出,先把样本投影到一个空间,计算每个样本类别的中心,在分类的时候,通过对比目标到每个中心的距离,从而分析出目标的

relation classification(RC)

关系抽取问题

Incremental Learning

增量学习

神经气体网络

neural gas network,NG

Triplet loss

一种损失

Mask

分割的结果叫mask

因为分割结果通常会半透明的覆盖在待分割目标上,所以就叫它掩膜吧。

收敛

汇聚于某一点,向某值靠近。

relation classification(RC)

关系抽取问题

Incremental Learning

增量学习

神经气体网络

neural gas network,NG

Triplet loss

一种损失

Mask

分割的结果叫mask

因为分割结果通常会半透明的覆盖在待分割目标上,所以就叫它掩膜吧。

收敛

汇聚于某一点,向某值靠近。

Lua

是一种轻量级的脚本语言。用标准的C语言编写并以源代码形式开放

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值