人工智能中的一些常见名词概念汇总(神经网络、贝叶斯方法、支持向量机、稀疏回归)

@toc

神经网络(neural network)

神经网络是由多个简单的处理单元彼此按某种方式相互连接而形成的计算系统,该系统是靠其状态对外部输入信息的动态响应来处理信息的,其功能取决于网络的结构、连接强度以及单元的处理方式。

模糊神经网络(fuzzy neural network)

模糊神经网络将模糊系统和神经网络相结合,充分考虑了二者的互补性,集逻辑推理、语言计算、非 线 性 动 力 学 于 一 体,具 有 学 习、联 想、识 别、自适应和模糊信息处理能力等功能。

循环神经网络(recurrent neural network)

循环神经网络是一类以序列数据为 输 入,在序列的演进方向进行递归且所有节点(循环单元)按链式连接的递归神经网络。

长短时记忆网络(long short and memory network)

长短时记忆网络是一种特殊的循环神经网络,通过增加输入门、输出门和遗忘门,使得神经网络的权重能够自我更新,在网络模型参数固定的情况下,不同时刻的权重尺度可以动态改变,从而能够有效避免模型训练过程中出现的梯度消失或者梯度爆炸问题,在一定程度上解决了循环神经网络存在的长时间依赖问题。

随机森林(random forest)

随机森林是 Bagging的 一 个 扩 展 变 体,其 在以决 策 树 为 基 学 习 器 构 建 Bagging集 成 的 基 础上,进一步在决策树的训练过程中引入了随机属性选择,在很多现实任务中展现出强大的性能,被誉为“代表集成学习技术水平的方法”。

支持向量机(support vector machines)

支持向量机是一种二分类模型,它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。

高斯过程(gaussian process)

高斯过程是概率论和数理统计中随机过程的一种,是一系列服从正态分布的随机变量在一指数集内的组合。

贝叶斯方法(bayesian analysis)

贝叶斯分方法是贝叶斯学习的基础,它 提 供了一种计算假设概率的方法,这种方法是基于假设的先验概率、给定假设下观察到不同数据的概率以及观察到的数据本身而得出的。

稀疏回归(sparse regression)

稀疏回归的基本思想是将样本的稀疏系数权重作为比例信息引入低维嵌入模型中,利用稀疏约束因子来建立惩罚模型,将一些作用小的数据系数权重置为0或趋于零,对特征起到选择作用。

符号回归(sambolic regression)

符号回归是根据给定的数据集,在指 定 的 符号空间内搜索能够拟合数据集的公式。符号回归是一个 NP-hard问题,其主要使用遗传编程算法进行求解。

高 斯 回 归(gaussian regression)

高斯过程回归是使用高斯过程先验对数据进行回归分析的非参数模型。

自编码器(autoencoder)

自编码器是一类在半监督学习和非监督学习中使用的人工神经网络,其功能是通过将输入信息作为学习目标,对输入信息进行表征学习。

迁移学习(transfer learning)

迁移学习是一种机器学习方法,是把 一 个 领域(即源领域)的知识,迁移到另外一个领域(即目标领 域),使 得 目 标 领 域 能 够 取 得 更 好 的 学 习效果。

强化学习(reinforcement learning)

强化学习是一种以环境反馈作为输入的、特殊的、适应环境的机器学习方法,又 称 为 增 强 学习、加强学习、再励学习或激励学习,是一种从环境状态到行为映射的学习,目的是使动作从环境中获得的累积回报值最大。

数据挖掘(data mining)

数据挖掘是一门跨学科的计算机科学分支,它使用人工智能、机器学习、统计学和数据库的交叉方法,在大规模数据中发现隐含模式。


持续更新(2021/6/26)

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
相关向量机的MATLAB代码,经过验证是正确的,很实用 推荐相关向量机(Relevance vector machine,简称RVM)是Tipping在2001年在贝叶斯框架的基础上提出的,它有着与支持向量机(Support vector machine,简称SVM)一样的函数形式,与SVM一样基于核函数映射将低维空间非线性问题转化为高维空间的线性问题。 RVM原理步骤 RVM通过最大化后验概率(MAP)求解相关向量的权重。对于给定的训练样本集{tn,xn},类似于SVM , RVM 的模型输出定义为 y(x;w)=∑Ni=1wiK(X,Xi)+w0 其 wi为权重, K(X,Xi)为核函。因此对于, tn=y(xn,w)+εn,假设噪声εn 服从均值为0 , 方差为σ2 的高斯分布,则p ( tn | ω,σ2 ) = N ( y ( xi ,ωi ) ,σ2 ) ,设tn 独立同分布,则整个训练样本的似然函数可以表示出来。对w 与σ2的求解如果直接使用最大似然法,结果通常使w 的元素大部分都不是0,从而导致过学习。在RVM 我们想要避免这个现像,因此我们为w 加上先决条件:它们的机率分布是落在0 周围的正态分布: p(wi|αi) = N(wi|0, α?1i ),于是对w的求解转化为对α的求解,当α趋于无穷大的时候,w趋于0. RVM的步骤可以归结为下面几步: 1. 选择适当的核函数,将特征向量映射到高维空间。虽然理论上讲RVM可以使用任意的核函数,但是在很多应用问题,大部分人还是选择了常用的几种核函 数,RBF核函数,Laplace核函数,多项式核函数等。尤其以高斯核函数应用最为广泛。可能于高斯和核函数的非线性有关。选择高斯核函数最重要的是带 宽参数的选择,带宽过小,则导致过学习,带宽过大,又导致过平滑,都会引起分类或回归能力的下降 2. 初始化α,σ2。在RVMα,σ2是通过迭代求解的,所以需要初始化。初始化对结果影响不大。 3. 迭代求解最优的权重分布。 4. 预测新数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值