Deep Learning with Python第二章(翻译)7未完

2.3 神经网络的用具:张量操作

很多和任何电脑程序一样能最终减少到一个在二进制输入中二进制操作的小集合(AND,OR,NOR等等),所有通过深度神经网络学习的转化可以被减少到一把应用在张量数字数据上的张量操作。例如,它可能张量相加,张量相乘等等。

在我们最初的例子中,我们通过堆叠Dense层在彼此之上来建立了我们的网络。一个Keras层的例子看上去像是这样的:

(略)

这层能被理解为一个公式,它可以输入一个2D张量并且返回另一个2D张量——一个新的输入张量表示方法。特别是,这个方程如下(这里W是一个2D张量,b是一个向量,是层的两个属性):

让我们解释它。在这里我们有三个张量操作:输入张量间点积(dot)和一个张量的名字W;一个在2D张量结果间的叠加(+)和向量名b;以及,最后,一个relu操作。relu(x)表示max(x,0)

2.3.1 元素操作

relu操作和叠加属于元素操作:独立应用于被考虑的张量的每个条目的操作。这意味着这些操作极易于大规模并行实现(矢量化实现,一个来自于1970~1990年的向量处理器超级计算机的档案结构的术语)。如果你像写简单的Python对元素操作的执行,你使用for循环,就像在这个稚嫩的元素方式relu操作的实现:

(略)

             

               

出于相同的原理,你能做到乘法元素操作,减法等等。

在实践中,当处理Numpy数组时,这些操作通过优化了的内置Numpy功能使用,

             

             

             

             

 

转载于:https://www.cnblogs.com/zzheng-blog/p/10878735.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值