神经网络与深度学习
夏洛克江户川
不会打篮球的码农不是好老板
展开
-
一文弄懂神经网络中的反向传播法——BackPropagation
最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学的时候总是会遇到一些问题,或者看到大篇的公式觉得好像很难就退缩了,其实不难,就是一个链式求导法则反复用。如果不转载 2017-10-29 19:47:57 · 1553 阅读 · 0 评论 -
希望可以是你看到的最直白清晰的CNN讲解
希望可以是你看到的最直白清晰的CNN讲解点燃朋友圈的Alpha zero成为继Alpha go之后的有一个deep learnning产品,想必有很多人都想来了解深度学习,博主最近也一直在对深度学习进行探索,希望这篇文章可以和大家共同交流、探索。这篇博客介绍的是深度神经网络中常用在图像处理的模型——卷积神经网络(CNN),CNN在图像分类中(如kaggle的猫狗大战)大显身手。这篇博客将带你了解图像原创 2017-11-04 17:49:59 · 1743 阅读 · 1 评论 -
用最简单的过程讲述RNNs与LSTM的故事
好吧,我承认我懒了,好久没有发文了,主要最近真的很忙,忙校招,忙课题,神烦,趁着周末好好研究了一下RNN和LSTM(为了让毕业论文的逼格高一些),我发现RNN,尤其是LSTM,没有CNN那样直白,思想很简单,但学完之后总觉得似懂非懂,所以今天想写这么一篇博客梳理一下自己的学习心得,也希望与大家多多交流,本人才疏学浅,如有说的不合理的地方,请尽管指正。首先,默认大家对最简单的感知机是了解的,关于深层的原创 2017-11-14 19:22:48 · 5127 阅读 · 0 评论 -
机器学习中的范数规则化之L0、L1与L2范数
转载于http://blog.csdn.net/zouxy09/article/details/24971995 机器学习中的范数规则化之(一)L0、L1与L2范数zouxy09@qq.comhttp://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核转载 2017-10-29 19:36:35 · 772 阅读 · 0 评论 -
[转]关于熵的概念与例子(原博文写的真的很好,转来供更多人参考)
交叉熵(Cross-Entropy)转载 2018-01-10 00:25:24 · 1550 阅读 · 0 评论