deep Learning
Laplace666
这个作者很懒,什么都没留下…
展开
-
Training Neural Networks with Weights and Activations Constrained to +1 or -1论文阅读
确定性与随机二值化决定式的二值化:随机式的二值化:第二种方法虽然看起来比第一种更合理,但是在实现时却有一个问题,那就是每次生成随机数会非常耗时,所以一般使用第一种方法。梯度计算与累积(梯度计算与累加)虽然BNN的参数和各层的激活值是二值化的,但梯度不得不用较高精度的实数而不是二值进行存储。通过离散化传播梯度(离散化梯度传播)如何对权和激活进行二值化。如下图左,二...原创 2018-11-13 21:52:32 · 495 阅读 · 0 评论 -
强化学习之Q_lerning实现。
强化学习之Q_lerning:Q-Learning算法学习Q-Learning算法下,目标是达到目标状态(Goal State)并获取最高收益,一旦到达目标状态,最终收益保持不变。因此,目标状态又称之为吸收态。Q-Learning算法下的agent,不知道整体的环境,知道当前状态下可以选择哪些动作。通常,我们需要构建一个即时奖励矩阵R,用于表示从状态s到下一个状态s’的动作奖励...转载 2018-11-21 10:26:57 · 659 阅读 · 0 评论 -
Q - learning 的具体过程
看了莫烦的机器学习方法简介,了解到Q_Learning的机器学习方法,这是我找到的一个通俗易懂的讲解,转至https://blog.csdn.net/itplus/article/details/9361915转载 2018-11-20 09:30:28 · 293 阅读 · 0 评论 -
遗传算法(GA)
找一个好的fitness方程 所有的遗传算法 (Genetic Algorithm), 后面都简称 GA, 我们都需要一个评估好坏的方程, 这个方程通常被称为 fitness. 在今天的问题中, 我们找到下面这个曲线(y=sin(10*x)*x + cos(2*x)*x )当中的最高点. 那么这个 fitness 方程就很好定, 越高的点, fitness 越高.如果这个曲线上任一点的...翻译 2018-12-06 19:03:33 · 574 阅读 · 0 评论 -
建造第一个神经网络
定义 add_layer()在 Tensorflow 里定义一个添加层的函数可以很容易的添加神经层,为之后的添加省下不少时间.神经层里常见的参数通常有weights、biases和激励函数。def add_layer(inputs, in_size, out_size, activation_function=None): Weights = tf.Variable(t...翻译 2018-12-06 22:46:45 · 190 阅读 · 0 评论 -
Roofline Model与深度学习模型的性能分析
转载知乎:https://zhuanlan.zhihu.com/p/34204282讲的非常好,通俗易懂。最近在不同的计算平台上验证几种经典深度学习模型的训练和预测性能时,经常遇到模型的实际测试性能表现和自己计算出的复杂度并不完全吻合的现象,令人十分困惑。机缘巧合听了Momenta的技术分享后,我意识到问题的答案其实就在于 Roof-line Model 这个理论,于是认真研究了一下相关论文。...转载 2019-01-09 21:56:59 · 936 阅读 · 1 评论 -
德国交通标志训练集的数据预处理
网址:http://benchmark.ini.rub.de下载好的数据集文件是.ppm格式。需要将其转成.png格式。每个文件夹下有.csv文件(Comma-Separated Values,标记)里面有ROI区域的坐标,我们需要根据这个ROI区域的坐标,来分割出ROI区域,并另存为后缀为.png的格式。写了数据转换脚本是transform.py。再看文...转载 2019-05-13 11:01:31 · 3061 阅读 · 3 评论