Tensorflow实战Google深度学习框架

本文探讨了Tensorflow中的线性模型及其局限性,通过实例解释为何需要引入激活函数以实现非线性模型。文章提到了Tensorflow支持的常见激活函数,如relu、sigmoid和tanh,并简单介绍了损失函数在神经网络优化中的作用,特别是分类问题中的交叉熵损失函数。
摘要由CSDN通过智能技术生成

博主好久没有更新了,以后继续坚持吧


第四章说到,深层神经网络,理解了一些基本概念,在第三章书中提到的模型是由线性的模型来实现的,被称为线性模型,因为当模型的输入只有一个的时候,输出的x和y为坐标系上的一条直线,类似的,当模型有n个输入的时候,也是在n维空间内的平面

在前面的介绍中的为:

                a = xW(1),  y=aW(2),其中x为输入,W为参数,也就相当于y = aW(1)W(2),在这里,所有的输入,输出,以及参数都是矩阵,都要用矩阵的乘法才能来实现整个关系。

在这里,为什么要讨论线性模型呢?因为要引出激活函数,由于线性模型具有很大的局限性,举个例子来说明问题吧

    如下图:

这个图如果用线性模型来进行分类的话,就是用一条直线将两类的点分开,但是从图中我们可以明显的看出,这是不可能的。

因此需要激活函数(Activation),激活函数的加入,让原来是线性模型的东西变成了一个可以是非线性模型的东西,一般,除了加入Activation,还会加入biases(偏置项),tf提供了七种激活函数,常用的有tf.nn.relu, tf.nn.sigmoid, tf.nn.tanh,当

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值