自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

花梦飞的博客

学的越多越知道自己知道的很少

  • 博客(20)
  • 资源 (1)
  • 收藏
  • 关注

原创 19什么是强化学习(Reinforcement Learning)

所谓强化学习就是智能系统从环境到行为映射的学习,以使奖励信号(强化信号)函数值最大,强化学习不同于连接主义学习中的监督学习,主要表现在虚拟教师信号上,强化学习中由环境提供的强化信号是对产生动作的好坏作一种评价(通常为标量信号),而不是告诉强化学习系统RLS(reinforcement learning system)如何去产生正确的动作。由于外部环境提供的信息很少,RLS必须靠自身的经历进行学习。

2017-11-25 08:48:52 1331

原创 18L1和L2正规化(正则化)

为了说明这个标准化的问题,我们以线性拟合数据举例,当然其他机器学习算法都可以类似的推广。在用线性一次方程拟合数据的时候,我们的训练误差可能很低,但是泛化能力比较好。但对于高次方程去拟合数据时,训练误差可能很小,但是泛化误差可能很低。在高次方程中起重要作用的就是那些高次项和其系数,所以我们想要让这些能力强的项变得不那么牛,这时候我们加入了惩罚机制,对其参数进行惩罚,就是我们的正则化项啦。当然

2017-11-25 08:12:51 1258

原创 17批标准化(Batch Normalization )

批标准化(Batch Normalization )简称BN算法,是为了克服神经网络层数加深导致难以训练而诞生的一个算法。根据ICS理论,当训练集的样本数据和目标样本集分布不一致的时候,训练得到的模型无法很好的泛化。而在神经网络中,每一层的输入在经过层内操作之后必然会导致与原来对应的输入信号分布不同,,并且前层神经网络的增加会被后面的神经网络不对的累积放大。这个问题的一个解决思路就是根据训练样

2017-11-25 08:12:34 2390

原创 16如何处理不均衡数据

类别不平衡问题也成类偏斜,实质分类任务中不同类别的训练样例数目差别很大的情况。那当我们遇到类别不均衡问题的时候应该怎么处理呢。这里给出了集中处理手段.1、获取更多数据己还能不能获取到更多的数据. 有时候只是因为前段时期的数据多半呈现的是一种趋势, 等到后半时期趋势又不一样了. 如果没有获取后半时期的数据, 整体的预测可能就没有那么准确了.2、更换评判标准 我们会用到 准

2017-11-24 14:26:59 385

原创 15加速神经网络的训练

越复杂的神经网络 , 越多的数据 , 我们需要在训练神经网络的过程上花费的时间也就越多. 原因很简单, 就是因为计算量太大了. 可是往往有时候为了解决复杂的问题, 复杂的结构和大数据又是不能避免的, 所以我们需要寻找一些方法, 让神经网络聪明起来, 快起来.这里我们将介绍四种方法加速梯度下降的执行效果。1、Stochastic Gradient Descent (SGD)随机梯度下

2017-11-24 14:13:15 967

原创 14过拟合(Overfitting)

过拟合:我们通过训练集训练的模型对于训练样本的的拟合程度十分高,就会放大一些不必要的特征,再对测试集进行测试时,就容易造成测试精度很低,也就是模型的泛化能力很弱,这就是过拟合。那么我们如何解决过拟合问题呢?方法一: 增加数据量, 大部分过拟合产生的原因是因为数据量太少了. 如果我们有成千上万的数据, 红线也会慢慢被拉直, 变得没那么扭曲 . 方法二:利用L1、L2正则化

2017-11-24 11:26:09 254

原创 13激励函数(Activation Function)

激励函数也成激活函数。激励函数也就是为了解决我们日常生活中 不能用线性方程所概括的问题.通常有以下几个常用的激活函数:甚至可以创造自己的激励函数来处理自己的问题, 不过要确保的是这些激励函数必须是可以微分的, 因为在 backpropagation 误差反向传递的时候, 只有这些可微分的激励函数才能把误差传递回去.想要恰当使用这些激励函数, 还是有窍门的. 比如当你

2017-11-24 11:16:45 248

原创 12选择好特征

我在这节视频观看到的选择好的特征,仅仅是观察得到的一些结论,并没有涉及到很复杂的特征选择问题,什么信息熵什么互信息等等概念,只是从特征本身,观察的到的,其实这些都可以通过数学的或者信息论的知识进行推导,但这节我们不讨论。对于分类问题,简单点来说,那些有利于我们区分的特征就是好的特征。那些不利于我们判断,甚至混淆我们的感官,带来一些没用的信息,加重我们的分析的特征就是不好的特征。对于如何选择

2017-11-24 11:05:01 159

原创 11特征标准化

特征标准化也成特征缩放、均值归一化等。我们在面对多维特征问题时,要保证这些特征都具有相似的尺度,帮助我们的梯度下降算法,更快的收敛。我们在机器学习训练之前, 先对数据预先处理一下, 取值跨度大的特征数据, 我们浓缩一下, 跨度小的括展一下, 使得他们的跨度尽量统一.通常用于 特征标准化的途径有两种, 一种叫做 min max normalization, 他会将所有特征数据按比

2017-11-24 10:35:48 431

原创 10如何检验神经网络?

在神经网络的训练当中, 神经网络可能会因为各种各样的问题, 出现学习的效率不高, 或者是因为干扰太多, 学到最后并没有很好的学到规律 . 而这其中的原因可能是多方面的, 可能是数据问题, 学习效率 等参数问题.1、训练集和测试集(验证集):检验数据,我们一般将现有的数据划分成两个集合:训练集和测试集,使用训练集训练模型,使用测试集考察训练的模型对于未见样本的泛化能力。2、误差曲线:机器

2017-11-24 10:23:41 1509

原创 9 神经网络算法之梯度下降

优化(optimization)是人类历史上的重大突破, 他解决了很多实际生活中的问题. 比如说牛顿法 (Newton’s method), 最小二乘法(Least Squares method), 梯度下降法 (Gradient Descent) 等等. 而我们的神经网络就是属于梯度下降法这个分支中的一个.初学神经网络的时候, 我们通常会遇到这样一个方程, 叫做误差方程

2017-11-24 10:07:33 530

原创 0 有趣的机器学习

声明:我写的这一系列的文章都是观看    莫烦Python 的有趣的机器学习课程总结的部分笔记,因为这个课程很基础,所以每节的内容也不是很多,只是当作一个记录。有想要入门Python或者学习机器学习的人,都可以搜索 莫烦Python  在他的个人主页上学习。

2017-11-24 09:48:30 141

原创 8 神经网络的黑盒子不黑

神经网络内部并不是不可见的,而是神经网络经过输入层,到隐藏层,隐藏层处理特征变换之后,不再是我们所熟知的事物了。原本的代表特征被加工, 变成了另一种代表特征, 同样, 再次加工形成的代表特征通常只有计算机自己看得懂, 能够理解. 所以, 与其说黑盒是在加工处理, 还不如说是在将一种代表特征转换成另一种代表特征, 一次次特征之间的转换, 也就是一次次的更有深度的理解. 比如神经网络如果接收人

2017-11-24 09:44:33 932

原创 7 什么是GAN(生成对抗网络)?

神经网络分很多种, 有普通的前向传播神经网络 , 有分析图片的 CNN 卷积神经网络 , 有分析序列化数据, 比如语音的 RNN 循环神经网络 , 这些神经网络都是用来输入数据, 得到想要的结果, 我们看中的是这些神经网络能很好的将数据与结果通过某种关系联系起来.生成模型和判别模型理解对抗网络,首先要了解生成模型和判别模型。判别模型比较好理解,就像分类一样,有一个判别界

2017-11-22 15:53:43 2524

原创 6 什么是自编码(Autoencoder)?

原来有时神经网络要接受大量的输入信息, 比如输入信息是高清图片时, 输入信息量可能达到上千万, 让神经网络直接从上千万个信息源中学习是一件很吃力的工作. 所以, 何不压缩一下, 提取出原图片中的最具代表性的信息, 缩减输入信息量, 再把缩减过后的信息放进神经网络学习.这样学习起来就简单轻松了. 所以, 自编码就能在这时发挥作用. 通过将原数据白色的X 压缩, 解压 成黑色的X, 然后通过对

2017-11-22 15:46:24 511 1

原创 5 什么是LSTM-RNN(长短期记忆循环神经网络)?

RNN循环神经网络是有其弊端的,例如有这样一段话我们需要处理:今天我要做西红柿鸡蛋,我需要先去市场买两个西红柿,再买两个鸡蛋,回家之后,切西红柿,点火,放锅……我们需要让计算机判断我们做了一道什么菜,使用RNN,误差在时间序列上不断的累加,可能忘记了最开始的“西红柿鸡蛋”这个事啦。再来看看 RNN是怎样学习的吧. 西红柿鸡蛋这个信息原的记忆要进过长途跋涉才能抵达最后一个时间点. 然后我

2017-11-22 11:12:53 3036

原创 4 什么是循环神经网络(RNN)?

也称回复神经网络。RNNs的目的使用来处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNNs之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前

2017-11-22 11:03:16 309

原创 3 什么是卷积神经网络(CNN)?

卷积神经网络1、人工神经网络,在图片和与视频分析,自然语言处理上应用。2、卷积:(批量过滤器)对一段信息进行处理,加强数据的连续性。3、批量过滤器,总结出小块特征信息(边缘信息),一步步(卷积)扩大特征。4、在卷积中,在压缩过程中,会丢失信息,使用池化(pooling)解决该问题。5、池化(pooling):卷积不压缩信息,压缩通过池化实现,提高准确性。6、常见卷积过程输入

2017-11-22 10:58:04 312

原创 2 什么是神经网络(NN)?

一、什么是人工神经网络1,通过数学模型和算法模型来模拟人的神经系统2,通过人工神经元连接而成3,可以根据外界信息来改变内部结构4,可以逐步实现自适应二、人工神经元是怎样被训练的1,每个神经元都有一个对应的刺激函数2,当每次输入训练数据时,会有部分神经元的函数被激活3,然后根据每次的处理结果,及对结果有重要影响的部分,会修改部分相应神经元函数的参数,提高或降低对应神经

2017-11-22 10:53:22 1759 1

原创 1 什么是机器学习(Machine Learning)?

机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。主要的机器学习算法:1,通过分析大量数据和标签的 监督学习2,只通过分析大量数据的 非监督学习3,通过分析大量数据和少量标签的 半监

2017-11-22 10:48:01 5646

《百面机器学习算法工程师带你去面试》PDF版+epub版高清版

百面机器学习收录了超过100道机器学习算法工程师的面试题目和解答,其中大部分源于Hulu算法研究岗位的真实场景。本书从日常工作、生活中各种有趣的现象出发,不仅囊括了机器学习的基本知识,而且还包含了成为优秀算法工程师的相关技能,更重要的是凝聚了笔者对人工智能领域的一颗热忱之心,旨在培养读者发现问题、解决问题、扩展问题的能力,建立对机器学习的热爱,共绘人工智能世界的宏伟蓝图。上传的资源不要解压密码!!!来源于网络,如有侵权,请告知删除。

2019-06-16

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除