深度学习
文章平均质量分 61
Lily_9
小硕,FPGA与deep learning学习者。
展开
-
【深度学习——ANN】一文读懂BP神经网络
转自一位懂生活的女神的博客园的文章。http://www.cnblogs.com/charlotte77/p/5629865.html 最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是...转载 2018-06-05 11:33:28 · 2087 阅读 · 0 评论 -
【深度学习——BNN】:二值神经网络BNN——学习与总结
最近一直在做深度学习的FPGA布署,偶然研读到Bengio大神的著作《Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to +1 or −1》:链接:https://arxiv.org/abs/1602.02830关于BNN,已经有不少前辈做了mark,...原创 2018-08-04 16:44:28 · 30876 阅读 · 12 评论 -
【深度学习——评估指标】:FLOPS与SIMD
一、FLOPSFLOPS(Float Operations Per Second):每秒浮点运算量,是衡量吞吐率的一个单位,通过折算到具体的浮点操作数量上。所谓,吞吐率——就如同水管,每秒可以流出多少立方的水。 二、SIMDSIMD单指令多数据流(SingleInstruction Multiple Data,SIMD)是一种采用一个控制器来控制多个处理器,同时对一组数据(又称“...原创 2018-08-06 09:36:34 · 2389 阅读 · 0 评论 -
【深度学习——CNN】:卷积神经网络CNN——大事件一览
CNN不错的总结,转载自: http://blog.csdn.net/u013088062/article/details/51118744深度学习(DeepLearning)尤其是卷积神经网络(CNN)作为近几年来模式识别中的研究重点,受到人们越来越多的关注,相关的参考文献也是层出不穷,连续几年都占据了CVPR的半壁江山,但是万变不离其宗,那些在深度学习发展过程中起到至关重要的推动作用的经典...转载 2018-05-11 09:57:44 · 810 阅读 · 0 评论 -
【深度学习——梯度下降】区分BGD,SGD,MBGD
1.BGD(批量梯度下降):每次迭代,需要所有训练集数据参与,以更新一次参数; 假设迭代100次,所有训练集数据将被遍历100次,m=all; 优点:对于单峰可以收敛到全局最优解,适合小样本;缺点:对于大样本,收敛速度慢。2.SGD(随机梯度下降):每次迭代,需要仅随机挑选一个样本数据参与,以更新一次参数;m=1 优点:对于大样本(例如几十万),可能只需随机抽取几万条或者几千条的...原创 2019-03-13 17:19:57 · 908 阅读 · 0 评论