1. 常用的机器学习算法包括:
监督学习
半监督学习
无监督学习
增强学习
遗传算法
监督学习:就是人为的设定规则,告诉机器人该执行怎么样的行动。无监督学习就是不告诉机器人具体的实施办法,只给定规则,让机器人过程当中自己学习总结经验;半监督学习就是结合少标签的样本和大量无标签的样本进行学习和分类;强化学习就是将机器人丢到一个从未接触过的环境,不给定学习方法,让机器人在环境中自己摸索,总结经验;遗传算法就是根据自然界的物竞天择,适者生存准则,在学习的过程中淘汰掉那些“弱者”。
2.人工神经网络和生物神经网络
人工神经网络就是指通过正向和反向传播来更新神经元,从而形成神经网络系统;生物神经网络就是指通过刺激和激励形成新的神经元连接,让信号通过新的连接形成反馈。(比如说:小孩子吃糖果)
3.神经网络
神经网络系统包括输入层,隐藏层,和输出层。在每层当中包含设定得神经元个数多少。神经网络就是指通过正向和反向传播更新神经元得数值。训练就是指通过对比预测值和真值之间得关系,进行反向传递,在每个神经元传播得过程中包含激活函数,用来将反馈得数据更新神经元得大小,调整神经元得参数。
卷积神经网络常用来图像处理和自然语言处理。卷积是指不是对一个单独得像素进行处理而是对一块区域得像素进行处理,这种处理方法加强了图像区域之间得联系。卷积得过程当中可能会损失掉一些信息,通常是用池化层来解决。应为卷积的过程其实就是改变图像的长度,宽度和高度(高度是指图像的通道个数,RGB等)
常用的神经网络结构为:image-convolution-max pooling-convolution-max pooling-fulley connected -fulley connected-classifier-output
4.循环神经网络(RNN)
循环神经网络用来处理序列化数据,即数据之间包含明显的相对关系,顺序关系,常用结构图图下:
循环神经网络之所能够处理序列化信息是应为每一步的输入到输出的过程会产生一个系统的状态s(t),在处理t+1时刻的状态时会考虑到t时刻的状态,相当于后时刻的状态与前时刻的状态相关。仍然存在一个缺点就是:RNN神经网络不能很好的调用久远时刻的信息,相当于系统是一个老爷爷,会有健忘症。之所以此种特性是应为系统每次在传递的时候总会乘一个系数w,若w<1,在传递的时候,系统的状态无限接近于0,就会出现梯度弥散的现象;若w>1,则在传递的过程中系统的状态会接近于无限大,这种现象成为梯度爆炸。LSTM RNN的出现就是为了解决这种情况。
5.LSTM RNN
LSTM包含一个主线和分线,分线的网络结构和RNN的网络结构相同,主线的结构相当于故事中的大纲,用来连接事件的起承转合。忘记模块的作用就是当事情不再重要时,系统会忽略其部分,选择适当性的忘记。若分线模块的作用非常重要就会更新到主线当中,若分线模块的作用不重要,就会启动忘记模块。输出模块会根据当前分线和主线的状态进行输出结果。LSTM就像延缓记忆衰退的良药,可以带来更好的结果。