tensorflow就该这么学--5( 神经网络基础)

一、单个神经元

单个神经元输出时 y=w*x+b

1 、正向传播:输入数据,通过初始给定的参数w,b  计算出对应的函数值

2、反向传播:计算正向传播得到的函数值与真实标签之间的误差值,之后调整w,b

二、激活函数

主要解决模型表达能力不足的缺陷

常用的激活函数如下:

1、sigmoid        y~[0,1]       tf.nn.sigmoid(x,name=None)

2、tanh            y~[-1,1]      tf.nn.tanh(x,name=None)

3、relu             y = max(0,x)  tf.nn.relu(x,name=None)

三、softmax

判定输入某一类的概率大于其他类概率,那么这个类对应的函数值逼近1

四、损失函数

用于描述模型预测值和真实值的差距大小

常见的两种算法:

1、均值平方差  如果输入是实数、无界的值

2、交叉熵  输入的标签的位矢量


五、梯度下降

用于递归性逼近最小偏差模型,沿着梯度下降的方向求解最小值

1、常用方法:

批量梯度下降

随机梯度下降

小批量梯度下降

2、梯度下降函数

如:optimizer = tf.train.GradientDescentOptimizer(learning_rate)

模型的整个过程求导和反向传播操作都是在优化器里自动完成的

3、退化学习率

目的就是模型刚开始训练时使用大的学习率加快速度,训练到一定程度后使用小的学习率来提高精度


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值