神经网络的学习(1)—BP算法

开场白


很早之前在挖神经网络的发展历史,感觉像读一本故事书,了解到很多人物很多故事,然而实质的学习并没有落实,今天初学了下,颇有收获,开心ing。

很多大牛博客写的真的好,真的受益颇多,能够快速了解一些领域的知识,减少很多学习时间,我这种小白是最喜欢的了,超级棒。

BP算法


看了一篇用大白话讲解BP算法的,很不错。文章直接用数据说明问题,这是最显而易见的,比抽象的文字说明更实在更通俗易懂,此处贴一下文章地址:https://blog.csdn.net/zhaomengszu/article/details/77834845

读后感


看完博客的感受就是 so easy,哪里不会点哪里 哈哈哈。。。(主要是大佬的博客写的好)

一听到神经网络,就觉得很高大上,其实很多东西都是一种时间累积的沉淀物,只要稍微深挖一点,你就会看到很多熟悉的东西,不谦虚的说一句,也就那样呗。

事物成了热门话题,就会引起大家的关注,那么该事物就会被快速的推进,发展。 那么各式各样的变种,什么DNN ,CNN,RNN,LSTM,或者各种排列组合等,各种各样的网络层出不穷。那么学习某种领域的过程,我是比较喜欢由浅到深,由表及里的。一是我比较笨,二是这种方式比较不容易受打击。

学习就从最经典款来,就像去吃东西一样,我们进入到一家陌生的店,点餐时,大多数人还是会选择经典款的,理儿都是通的。

首先从经典的DNN说起,网络结构不用说,最简单的全连式网络,(此处DNN网络结构图略。。。。。。。。。。。。。公司的防火墙我想打一顿,上传个图片都不行,气。。。。。。。。。。。。。。。。。)

言归正传,BP算法用来干嘛的,其实就是用来更新网络参数的。名字听着深不可测,吓得我一直畏畏缩缩不敢学习。实际一看,往小的点看,就是一个梯度更新法呗,不得不说,万变不离其宗。找个损失函数,求其最小值,固定变量,求偏导,梯度更新。就这些东西。嗯,先给自己把门槛放低,就这么些东西,别惧怕,慢慢的深入学习,兄弟!!!

关于神经网络相关的,还需要专业的去解读几个名词定义:
1.激活函数
2. 损失函数
3. 目标函数
4. softmax函数
一个一个学习,各个击破吧

总结


按照许同学的说法,鼓励下自己: 佩奇,加油!!!
TuTu已经不是当年的那个图图了 ,哎。。。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值