《Neural Networks for Machine Learning》 by Hinton 学习笔记(一)

1. Why we need Machine Learning

我们很难找到一些规则或者直接编写程序来解决一个问题,比如这样的问题:

  • 三维物体的识别——我们不知道我们的大脑是如何识别物体的,不能找到很好地规则来描述这个问题,即使能找到比较好的规则,编程的复杂度也可能会非常高。
  • 欺骗性的信用卡交易——所谓道高一尺魔高一丈,骗子的手法总是在不断更新的,我们需要一个可以不断更新,并不断识别骗局的程序。

使用机器学习的方法可以很好地解决上面的问题:

  • 我们不用自己去设计规则,只需要给定足够多的数据就好了
  • 我们不用担心场景的变化(比如骗子的手法更新),只要新的数据在变化,我们的判断标准也再相应的变化。
  • 现在的计算资源非常充足,这也使得机器学习成为了可能。

实际生活中有很多机器学习的问题:

  • 语音识别(My major research)
  • 图像的识别
  • 欺骗性信用卡交易的识别

这些都是使用机器学习非常好的动力。那么问题来了,机器学习是什么?

2. What is Machine Learning

在谈什么是机器学习之前,我们必须先对人大脑中的神经进行一些了解。下面是一个典型的突触结构:

突触结构

我们的神经元大多是这样联系在一起的,一个神经元的轴突末端变大,与另一个的神经元的胞体(细胞体)或树突联系在一起,中间包含突触前膜、突触间隙、突触后膜。一次神经间的信息传递是这样一个过程(这只是一个大概的过程,其中也许有不严谨的地方,欢迎批评指出,毕竟这也不是我的专业。。。):

  1. 上一个神经元的电信号传递过来之后,线粒体产生能量,推动突触小泡移动到突触前膜,释放相应的神经递质
  2. 突触小泡与突触前膜融合释放神经递质到突触间隙
  3. 神经递质移动到突触后膜或者移动到别的地方,总之在下一次之前这次的神经递质一定会被消耗(被受体,或者被以其他的方式消耗,也许被分解?anyway)
  4. 突触后膜上的受体接受到神经递质之后会产生电位变化,产生脉冲信号。从而将刺激向后传递

突触中有几个地方需要注意:

  • 神经元中的递质有兴奋性和抑制性两种,所以神经元也分成了兴奋性和抑制性两种
  • 在不同的神经元中囊泡(递质就在这里面)的数量是不同的
  • 每个神经元都不是与单个神经元连接的,通常一个神经元会有 104 个神经元与它连接
  • 本次神经元产生冲动与否取决于所有与它相连的神经递质效果的总和。
    神经元之间的一个抽象
    神经元之间关系的一个抽象表示

另外,我们的大脑有值得注意的特点:

  • 大脑是分区的,不同的区域有不同的分工
  • 大脑中的区域一开始有相同的功能,后面逐步变化,开始做不同的工作
  • 大脑是高度并发计算的,和我们传统的计算机的串行计算不同(一条指令一条指令的执行,图灵机模型)

3. Some simple neurons

1. Linear neurons

考虑突触的特点,我们可以得到一种可能的,同时也是最简单,最理想化的神经元抽象:

y=b+ixiwi

其中:

  • y 表示神经元的输出
  • xi 表示与该神经元相连的第i个神经元的输出
  • wi 表示这第i个神经元的权重
  • b 是一个偏置常数,暂时可以先不管

    Linear neurons
    Linear neurons

    在这个最简单的神经元中我们忽略了很多真实神经元的特征,比如,我们神经元可能并不是线性的,它对其他神经元递质的综合方式可能不是简单的加权求和。为什么呢?因为这样会导致它的变化是没有界的,可能会很大也可能会很小,而我们身体中能产生的电流基本是恒定大小的,电位差也是在一个区间内变化的。所以人们又找了很多函数来对神经元进行建模。

2. Binary threshold neurons

z=b+ixiwiy={1,0,if z >= 0otherwise

Binary threshold neurons
Binary threshold neurons

3. Rectified Linear Neurons

z=b+ixiwiy={z,0,if z > 0otherwise

Rectified Linear Neurons
Rectified Linear Neurons

4. Sigmoid neurons

z=b+ixiwiy=11+ez

Sigmoid neurons
Sigmoid neurons

5. Stochastic binary neurons

z=b+ixiwip(y=1)=11+ez

Stochastic binary neurons
Stochastic binary neurons

注意:这个和Sigmoid neurons的区别,它表示神经元兴奋的可能性,也就是兴奋与否的概率大小。

4. Types of Machine Learning

机器学习的任务通常可以划分成如下的三种:

  • 有监督学习,通常对于每个输入都会有一个事先标记好的输出作为对应。可以分为回归问题和分类问题两种。
  • 增强学习,它的任务是确定一系列的决策,这系列的决策在将来看来可以避免最多的损失,或者获得最大的收益。
  • 无监督学习,这个学习任务通常被理解为聚类的操作,即把一些一些数据分为一类,它通常可以看做是在找到一些事物的内部特征。可以用来做数据压缩等任务。
混合图神经网络用于少样本学习。少样本学习是指在给定的样本数量非常有限的情况下,如何进行有效的学习和分类任务。混合图神经网络是一种结合了图神经网络和其他模型的方法,用于解决少样本学习问题。 首先,混合图神经网络将图神经网络与其他模型结合起来,以充分利用它们在不同任务上的优势。图神经网络可以有效地处理图结构数据,并捕捉节点之间的关系,而其他模型可能在处理其他类型的数据时更加优秀。通过将它们结合起来,混合图神经网络可以在少样本学习中更好地利用有限的数据。 其次,混合图神经网络可以通过在训练过程中使用一些预训练模型来提高学习效果。预训练模型是在大规模数据集上进行训练得到的模型,在特定任务上可能有较好的性能。通过将预训练模型与图神经网络结合,混合图神经网络可以在少样本学习中利用预训练模型的知识,以更好地适应有限的数据。 最后,混合图神经网络还可以通过设计适当的注意力机制来提高学习效果。注意力机制可以使网络更加关注重要的特征和关系,忽略无关的信息。在少样本学习中,选择性地关注有限的样本和特征对于提高学习的效果至关重要。混合图神经网络可以通过引入适当的注意力机制来实现这一点,以提取和利用关键信息。 综上所述,混合图神经网络是一种用于少样本学习的方法,它结合了图神经网络和其他模型的优势,并利用预训练模型和适当的注意力机制来提高学习效果。这种方法对于在有限数据条件下执行有效的学习和分类任务非常有帮助。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值