机器学习基石2-1 Perceptron Hypothesis Set

本节内容主要讲了ML的最基础的工作流程,HT Lin引用了一个非常简单易懂的银行发信用卡的例子讲述了ML是如何作用于Data Set以及获取结果的。


(1)基本缩写字母表达的涵义:

A:机器学习算法

D:Data Set,即数据集

H:Hypothesis Set,即假设集(注意,不是单个的假设!)

g:最佳假设,即最接近规则f的假设



2.银行信用卡发卡例子

这张图就很好地概括了ML的工作流程,f是一个X集合向Y集合的映射规则,但是原则上来说f是不可达的,即f是没有完全清楚的定义的,我们进行ML的目的也不是为了求出f( 实际上也求不出f),我们只能尽可能地求一个最接近f的假设g,这个g包含在H中。


现在的问题就是如何求出这个g呢?HT Lin引用了一个银行的例子。银行拥有很多applicant的个人信息,这些信息从一定程度上反映了该applicant的信用程度。现在我们的工作就是给出一个假设集H,然后使用这些applicant的信息配合learning algorithm进行训练,最后的输出为一个g,该g视为最接近f的一个假设。这个时候,我们就得到了一个是否为一个新进入Data Set的applicant发放credit的规则g。该g的输入为该applicant的信息,输出为一个boolean结果,即是否为其发放credit。

OK,现在我们需要构造一个能够从中选出一个正确的g的H。在HT Lin的例子中,将每位applicant的信息向量化为一个n维的向量X(x1,x2,...,xn),然后为每个xi设置一个权重wi。根据这个设定,每位applicant的信用评级分数就可以用下面的公式表示:


如果这个分数大于一个threshold,那么认为该用户的信用评分足够,可以为其颁发credit,否则拒绝颁发credit。


进一步,我们得到一个假设h(x)如上图,注意,此处的x为向量X而不是变量x。可以根据h(x)是否大于0来判断该用户的信用评级。这里的h(x)成为perceptron(感知器),这个名字是由神经网络引进来的,这里不做深究。


进一步,我们将-threshold值视为w0,并且令x0为1,那么得到了一个如下的归一形式的h(x)如下图:



至此,我们的h(x)就可以表示为一个具有n+1维(0~n)的向量W和向量X的内积。这是一种最简单的情况。直观地来看,当维度为2时,该感知器的表现如下图:


h(x)在一个二维空间中表现为一条直线,该直线将平面分为两个部分。位于直线两侧的点分属不同的class。对应于银行发卡的例子就是直线两侧的点分别对应了发credit/不发credit两种情况。


这样的perceptron成为linear(binary) classifier,即用一条直线区分两种不同类型的applicant。

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 多层感知器(Multi-Layer Perceptron)是一种人工神经网络,由多个神经元层组成。它是一种前向反馈网络,每一层的神经元都与下一层的神经元相连。多层感知器可以用于分类、回归和预测等任务。它的训练过程通常使用反向传播算法。 ### 回答2: 多层感知器(Multi-Layer Perceptron,MLP)是一种前馈神经网络,由多层单元组成。每一层的单元都与其它层的单元相连,每个连接都有一个权重。MLP通常用于各种机器学习任务,如分类、回归和预测问题。MLP模型使用反向传播算法(backpropagation)来训练,该算法可以有效地更新权重和偏置,以最小化损失函数。 MLP的每一层通常包括以下组成部分: 1.输入层:接受输入数据(例如,图像像素或声音信号等)的神经元。 2.隐藏层:包含多个神经元,用于处理输入数据并学习特征。 3.输出层:输出神经元向前传递信号,将结果转换为适当格式。 MLP的优点在于它具有复杂的非线性模型,可以学习复杂的非线性关系。它还可以处理多个输入和输出,并在训练过程中自动调整它们之间的权重。在某些情况下,MLP可以实现非常高的准确度,并且能够泛化到新的数据集中。 然而,MLP也有一些缺点。由于其模型复杂性,训练和优化过程需要大量的计算资源和时间。在处理非常大型的数据集时,可能需要使用分布式计算或GPU硬件加速等技术来提高性能。此外,MLP也容易出现过拟合问题。为了避免这种情况,可以使用正则化或丢弃(dropout)等技术来减少模型的复杂性。 总之,多层感知器是一个非常强大的机器学习模型,可以应用于各种任务中。但是,在应用之前,需要对它的优缺点及应用场景有深刻的了解,以充分利用其潜力。 ### 回答3: 多层感知器(multilayer perceptron,缩写为 MLP)是一种前馈神经网络(feedforward neural network)的结构,由多个中间层(hidden layer)和一个输出层组成。每个中间层和输出层都由多个神经元(neuron)组成,每个神经元接受多个输入,并产生一个输出值。 传统的单层感知器只能解决线性可分问题,而多层感知器通过引入中间层来实现非线性映射,因此可以解决更加复杂的非线性问题。 在多层感知器中,每个神经元都有一个激活函数(activation function)用于将输入信号转化为输出信号。常见的激活函数有sigmoid函数、ReLU函数等。在通过多层进行计算后,最终的输出结果将被送入输出层,由输出层的神经元给出最终的分类结果或回归预测结果。 多层感知器的训练过程通常采用反向传播算法(backpropagation),通过计算预测结果与实际结果的误差,以及每个神经元对误差的贡献,来更新每个神经元的权重和偏置参数,优化整个网络的性能,使其能够更好地对未知数据进行预测。 多层感知器广泛应用于模式分类、信号处理、语音识别、图像识别、自然语言处理等领域,已经成为深度学习的重要组成部分。随着硬件设备性能提升和深度学习算法的不断发展,多层感知器和其他深度学习技术有望在更广泛的领域中得到应用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值