神经网络-激活值的世界

从初始激活值开始,通过训练好的参数,得到下层网络的激活值,层层传递得到新激活值的过程,就是神经网络的运算本质。

采用Relu激活函数的情况下,每个神经元的取值范围都应该在0~1之间。

个人认为,激活函数=得到激活值的函数 

之所以用Relu取代了Sigmoid函数,据说是Relu能在多层神经元时候表现更好,降低过拟合。这个需要继续学习才能明白。

Relu = max (0, x)

人们在尝试识别手写体的过程中,将自己大脑识别数字的过程用程序和数学结合的方式表达了出来,这就是神经元的由来。

为什么我们能识别出写的歪歪扭扭的数字9? 因为我们能看到数字9的两个特征:

1,上面是个圈----不管是圆形,椭圆形,正/斜,闭合/接近闭合 

2,下面是个线----直线/弧线 都可以,但是要和上面圆形相接,且结合点必须在圆的右下角,和圆的右侧接近组成一个线段

神经元识别就是基本按照这个方式来实现的。只不过会拆分的更细一些

第三层如果圈和竖线对应的神经元的激活值很高,假设接近1 .这样输出层在计算每个数字的激活值的时候,数字9的激活值就是最高的。

每层的激活值(除了第一层),都是由上一层的激活值运算得到的。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值