莫烦
hebi123s
这个作者很懒,什么都没留下…
展开
-
人工神经网络 和 生物神经网络
人工神经网络1.不会产生新的链接2.将传过来的信号,传回去,看看结果是否正向的,进而修正数据 - 术语为 :误差反向传播算法。本质上是一个数学模型 生物神经网络1.生物神经网络,接受到刺激,会建立新链接2.接受到正向的反馈,也优化神经元...转载 2018-09-17 11:11:28 · 1348 阅读 · 0 评论 -
强化学习的相关内容
什么是强化学习强化学习是机器学习的一个重要分支,是多学科多领域交叉的一个产物,它的本质是解决 decision making 问题,即自动进行决策,并且可以做连续决策。强化学习的原理agent,环境状态,行动,奖励, 强化学习的目标就是获得最多的累计奖励。让我们以小孩学习走路来做个形象的例子:小孩想要走路,但在这之前,他需要先站起来,站起来之后还要保持平衡,接下来还要先迈出一条...转载 2018-09-19 17:05:02 · 206 阅读 · 0 评论 -
什么是批标准化 (Batch Normalization)
为什么要数据标准化(1)具有统一规格的数据, 能让机器学习更容易学习到数据之中的规律.(2)也是优化神经网络的一种方法 什么是批标准化 (Batch Normalization)Batch Normalization, 批标准化, 和普通的数据标准化类似, 是将分散的数据统一的一种做法, 每层都做标准化 在神经网络中, 数据分布对训练会产生影响. 比如某个神...转载 2018-09-19 11:26:00 · 11883 阅读 · 0 评论 -
处理不均衡数据
一、什么是数据不平衡在学术研究与教学中,很多算法都有一个基本假设,那就是数据分布是均匀的。当我们把这些算法直接应用于实际数据时,大多数情况下都无法取得理想的结果。因为实际数据往往分布得很不均匀,都会存在“长尾现象”,也就是所谓的“二八原理”。下图是新浪微博交互分布情况:可以看到大部分微博的总互动数(被转发、评论与点赞数量)在0-5之间,交互数多的微博(多于100)非常之少。如果我们去预测一...转载 2018-09-18 18:48:55 · 495 阅读 · 0 评论 -
加速神经网络的训练
为什么要加速神经网络数据量太大,学习效率太慢 加速神经网络的方法1、Stochastic Gradient Descent (SGD)随机梯度下降批量梯度下降法(Batch Gradient Descent,简称BGD)是梯度下降法最原始的形式,它的具体思路是在更新每一参数时都使用所有的样本来进行更新,其数学形式如下: (1) 对上述的能量函数求偏导: (2) ...转载 2018-09-18 18:25:40 · 2974 阅读 · 0 评论 -
Overfitting-过拟合 欠拟合(undefittingr)
什么是过拟合过拟合:我们通过训练集训练的模型对于训练样本的的拟合程度十分高,就会放大一些不必要的特征,再对测试集进行测试时,就容易造成测试精度很低,也就是模型的泛化能力很弱,这就是过拟合。 怎么解决过拟合对应导致过拟合发生的几种条件,我们可以想办法来避免过拟合。(1) 假设过于复杂(excessive dvc) => start from simple model(2...转载 2018-09-18 18:14:36 · 205 阅读 · 0 评论 -
激励函数
什么是激励函数?激励函数作用?激励函数也成激活函数。不使用激励函数的话,神经网络的每层都只是做线性变换,多层输入叠加后也还是线性变换。因为线性模型的表达能力不够,激励函数可以引入非线性因素 常见的激励函数? 如何选择激励函数?1.可以创造自己的激励函数来处理自己的问题, 不过要确保的是这些激励函数必须是可以微分的, 因为在 backpropagation 误差反向传递的...转载 2018-09-18 12:20:08 · 876 阅读 · 0 评论 -
怎样区分好用的特征?
什么是数据的特征?比如区分金毛和吉娃娃,他们都是狗狗,他们有的特征为:身高、耳朵大小、毛素、体重大小等等,这些定性的描述就是特征 为什么区分好用的特征? 机器在学习过程中,需要对数据维度降维,(1)提高机器学习速度,较少过拟合(2)使模型泛化能力更强(3)增强对特征和特征值之间的理解 区分特征的注意事项?1.定性的特征,需要转化为定量的特征才能使用2...转载 2018-09-18 12:06:14 · 245 阅读 · 0 评论 -
特征标准化
为什么要特征标准化今天我们会来聊聊机器学习所需要的数据,为了让机器学习方面消化, 我们需不需要对数据动些手脚呢. 所以今天就会提到特征数据的标准化, 也可以说正常化, 归一化, 正规化等等.现实中的数据说特征标准化之前, 我们先来说说现实生活中, 我们的数据是什么样的. 它们很可能来自不同的地方, 被不同的人采集, 有着不同的规格. 用最经典的房价预测例子来和大家说说. 我们用机器学习从...转载 2018-09-18 11:36:42 · 4035 阅读 · 1 评论 -
怎么检验神经网络?
在神经网络的训练当中, 神经网络可能会因为各种各样的问题, 出现学习的效率不高, 或者是因为干扰太多, 学到最后并没有很好的学到规律 . 而这其中的原因可能是多方面的, 可能是数据问题, 学习效率 等参数问题.1、训练集和测试集(验证集):检验数据,我们一般将现有的数据划分成两个集合:训练集和测试集,使用训练集训练模型,使用测试集考察训练的模型对于未见样本的泛化能力。2、误差曲线:机器学习...转载 2018-09-18 11:22:40 · 5713 阅读 · 0 评论 -
生成对抗网络
神经网络分很多种, 有普通的前向传播神经网络 , 有分析图片的 CNN 卷积神经网络 , 有分析序列化数据, 比如语音的 RNN 循环神经网络 , 这些神经网络都是用来输入数据, 得到想要的结果, 我们看中的是这些神经网络能很好的将数据与结果通过某种关系联系起来 什么是GAN生成式对抗网络(GAN, Generative Adversarial Networks )是一种深度学习模型,...转载 2018-09-18 10:53:44 · 372 阅读 · 0 评论 -
自编码
什么是自编码自编码,又称自编码器(autoencoder),是神经网络的一种,经过训练后能尝试将输入复制到输出。自编码器(autoencoder)内部有一个隐藏层h,可以产生编码(code)表示输入。该网络可以看作由两部分组成:一个由函数h = f(x) 表示的编码器和一个生成重构的解码器r = g(h)。 自编码的原理自编码器(Autoencoder,AE)是一个3层或者大于3层...转载 2018-09-18 10:36:32 · 890 阅读 · 0 评论 -
LSTM
简单的说法就是:RNN的弊端以及针对这一弊端提出的 LSTM RNNLSTM:Long Short-Term Memory 长短期记忆w<1 梯度消失/梯度离散w>1 梯度爆炸因此RNN无法回忆起久远记忆-----------------------------------------------------------------------------------...转载 2018-09-17 12:20:15 · 1285 阅读 · 0 评论 -
RNN(循环神经网络)
一文搞懂RNN(循环神经网络)基础篇本文讲解了RNN最基本的几个知识点,能够帮助大家直观的感受RNN和了解为什么需要RNN,后续总结它的反向求导知识点。1.神经网络基础神经网络可以当做是能够拟合任意函数的黑盒子,只要训练数据足够,给定特定的x,就能得到希望的y,结构图如下:将神经网络模型训练好之后,在输入层给定一个x,通过网络之后就能够在输出层得到特定的y,那么既然有了这么...转载 2018-09-17 12:15:22 · 1006 阅读 · 2 评论 -
卷积神经网络
卷积神经网络的应用和基本结构近些年逐渐兴起的人工神经网络结构,在图片和语言识别方面能够给出更优秀的测试结果,因此被广泛应用。最常被应用的方面是图片识别,经过不断创新,也被应用在了视频分析和自然语言处理以及药物发现等方面上。 卷积神经网络如何处理图片:卷积神经网络:不是对图片上每个像素的处理,而是对图片上每个像素区域的处理。加强了图片信息的连续性,加深了神经网络对图片的理解。卷积神...原创 2018-09-17 12:06:36 · 369 阅读 · 0 评论 -
人工神经网络
模拟动物神经,是一种数学模型/计算机模型,通过大量神经元连结进行计算。大多数情况下,人工神经网络能在外部信息的基础上改变内部结构,是一种自适应的过程。基于传统统计学建模的工具,常用来对输入和输出间复杂的关系进行建模,来探索数据间的模式。神经网络是一种运算模型,由大量的结点/神经元以及之间的联系构成。负责传递加工信息。神经元也可以被训练或强化形成固定的神经意识形态,对特殊的信息会有更强烈的反应。...转载 2018-09-17 11:59:02 · 292 阅读 · 0 评论 -
强化学习方法汇总
本文转自莫烦大佬了解强化学习中常用到的几种方法,以及他们的区别, 对我们根据特定问题选择方法时很有帮助. 强化学习是一个大家族, 发展历史也不短, 具有很多种不同方法. 比如说比较知名的控制方法Q learning, Policy Gradients, 还有基于对环境的理解的 model-based RL 等等. 接下来我们通过分类的方式来了解他们的区别.Model-free 和 Mode...转载 2018-09-19 18:00:56 · 1735 阅读 · 0 评论