tensorflow2是指_【2】TensorFlow2.0:数学运算

9413acf911cd14a95b27868bb521f5ab.png

0647fe9d2dfa5d84ed630d75aa092a04.png

本文授权转载自机器学习算法与Python实战 禁止二次转载

大家好,我是老表

阅读文本大概需要 26 分钟

系列推文

【1】TensorFlow2.0:基本数据结构——张量

1 基本运算:(+、-、*、/、//、%)

基本运算中所有实例都以下面的张量a、b为例进行:

import tensorflow as tfa = tf.random.uniform([2, 3], minval=1, maxval=6,dtype=tf.int32)b = tf.random.uniform([2, 3], minval=1, maxval=6,dtype=tf.int32)
a
array([[1, 4, 5],
[5, 1, 4]])>
b
array([[1, 3, 5],
[3, 5, 2]])>

(1)加(+)

tf.add(a,b)  # 通过add方法执行加操作
array([[ 2,  7, 10],
[ 8, 6, 6]])>
a + b  # 也可以通过操作符进行
array([[ 2,  7, 10],
[ 8, 6, 6]])>

(2)减(-)

tf.subtract(a,b)
array([[ 0,  1,  0],
[ 2, -4, 2]])>
a - b
array([[ 0,  1,  0],
[ 2, -4, 2]])>

(3)乘法(*)

tf.multiply(a,b)
array([[ 1, 12, 25],
[15, 5, 8]])>
a * b
array([[ 1, 12, 25],
[15, 5, 8]])>

(4)除法(/)

tf.divide(a,b)
array([[1.        , 1.33333333, 1.        ],
[1.66666667, 0.2 , 2. ]])>
a/b
array([[1.        , 1.33333333, 1.        ],
[1.66666667, 0.2 , 2. ]])>

(5)地板除法(//)

tf.floor_div(a,b)
array([[1, 1, 1],
[1, 0, 2]])>
a // b
array([[1, 1, 1],
[1, 0, 2]])>

(6)取余(%)

tf.mod(b,a)
array([[[0, 1, 2],
[0, 0, 2]],

[[0, 1, 2],
[0, 0, 2]]])>
b % a
array([[[0, 1, 2],
[0, 0, 2]],

[[0, 1, 2],
[0, 0, 2]]])>

可以看出,对于基本运算加(+)、减(-)、点乘(*)、除(/)、地板除法(//)、取余(%),都是对应元素进行运算。

2 指数、开方、对数

(1)对数运算

TensorFlow提供tf.math.log()方法来求对数,当然,求的是以自然常数为底的对数:

e = 2.71828183a = tf.constant([e, e*e, e*e*e])tf.math.log(a)
c = tf.fill([2,2],1.)tf.math.log(c)
array([[0., 0.],
[0., 0.]], dtype=float32)>

注意:TensorFlow中没有提供函数实现以其他数值为底的对数运算,例如, 。不过,我们可以通过其他方式来求取,记得下面这个高中时学过的公式吗:

所以有:

f = tf.constant([[1., 9.], [16., 100.]])g = tf.constant([[2., 3.], [2., 10.]])
tf.math.log(f) / tf.math.log(g)
array([[0., 2.],
[4., 2.]], dtype=float32)>

(2)指数运算

g = tf.constant([[2, 3], [2, 10]])
tf.pow(g, 2)
array([[  4,   9],
[ 4, 100]])>

也可以直接通过运算符来完成:

g ** 2
array([[  4,   9],
[ 4, 100]])>

(3)开方

f = tf.constant([[1., 9.], [16., 100.]])
tf.sqrt(f)
array([[ 1.,  3.],
[ 4., 10.]], dtype=float32)>

自然常数的指数运算:

d = tf.constant([[1.,2.],[3.,4.]])
tf.exp(d)
array([[ 2.7182817,  7.389056 ],
[20.085537 , 54.598152 ]], dtype=float32)>

注意:对数运算函数log()与指数运算函数在不同的模块中。

在我看来,上面提到的指数运算与对数运算不在通知模块以及没有提供以其他自然数为底的对数运算,应该应该是TensorFlow中的遗留问题,希望能够在正式版中得到修正。

3 矩阵相乘

import numpy as npa = tf.constant(np.arange(6),shape=(2,3))b = tf.constant(np.arange(6),shape=(3,2))
a
array([[0, 1, 2],
[3, 4, 5]])>
b
array([[0, 1],
[2, 3],
[4, 5]])>
tf.matmul(a,b)
array([[10, 13],
[28, 40]])>

矩阵相乘也可以通过符号来操作进行,用“@”表示:

a @ b
array([[10, 13],
[28, 40]])>

这里的张量a和b都是二维的,但在实际应用中,数据往往高于二维,这时候怎么应算呢?

a = tf.constant(np.arange(12),shape=(2,2,3))b = tf.constant(np.arange(12),shape=(2,3,2))
a
array([[[ 0,  1,  2],
[ 3, 4, 5]],

[[ 6, 7, 8],
[ 9, 10, 11]]])>
b
array([[[ 0,  1],
[ 2, 3],
[ 4, 5]],

[[ 6, 7],
[ 8, 9],
[10, 11]]])>
a @ b
array([[[ 10,  13],
[ 28, 40]],

[[172, 193],
[244, 274]]])>

可以看到,当高于二维的张量进行矩阵相乘时,最终的实现还是二维矩阵相乘,只不过分成了多个二维矩阵,四维张量也是一样的:

a = tf.constant(np.arange(24),shape=(2,2,2,3))b = tf.constant(np.arange(24),shape=(2,2,3,2))
a @ b
array([[[[  10,   13],
[ 28, 40]],

[[ 172, 193],
[ 244, 274]]],


[[[ 550, 589],
[ 676, 724]],

[[1144, 1201],
[1324, 1390]]]])>

4 Broadcasting机制

上面的所有实例中所用到的张量都是在维度数和形状相同情况下进行,那么,当两个张量维度数或者形状不一样时能不能进行运算呢?

a = tf.constant([1,2,3])b = tf.constant(np.arange(12),shape=(2,2,3))
b
array([[[ 0,  1,  2],
[ 3, 4, 5]],

[[ 6, 7, 8],
[ 9, 10, 11]]])>
a + b
array([[[ 1,  3,  5],
[ 4, 6, 8]],

[[ 7, 9, 11],
[10, 12, 14]]])>
a * b
array([[[ 0,  2,  6],
[ 3, 8, 15]],

[[ 6, 14, 24],
[ 9, 20, 33]]])>

可以看到,一个一维的张量与一个三维张量进行运算是完全没有问题的,从运算结果上可以看出,相当于是三维张量中的每一行数据与张量a进行运算,为什么可以这样运输呢?这就得益于TensorFlow中的Broadcasting机制。

Broadcasting机制解除了只能维度数和形状相同的张量才能进行运算的限制,当两个数组进行算术运算时,TensorFlow的Broadcasting机制首先对维度较低的张量形状数组填充1,从后向前,逐元素比较两个数组的形状,当逐个比较的元素值(注意,这个元素值是指描述张量形状数组的值,不是张量的值)满足以下条件时,认为满足 Broadcasting 的条件:

(1)相等

(2)其中一个张量形状数组元素值为1。

当不满足时进行运算则会抛出 ValueError: frames are not aligne 异常。算术运算的结果的形状的每一元素,是两个数组形状逐元素比较时的最大值。

回到上面张量a与b相乘的例子,a的形状是(3,),b的形状是(2, 2, 3),在Broadcasting机制工作时,首先比较维度数,因为a的维度为1,小于b的维度3,所以填充1,a的形状就变成了(1,1,3),然后从最后端的形状数组元素依次往前比较,先是就是3与3比,结果是相等,接着1与2相比,因为其中一个为1,所以a的形状变成了(1,2,3),继续1与2比较,因为其中一个为1,所以a的形状变成了(2,2,3),a中的数据每一行都填充a原来的数据,也就是[1,2,3],然后在与b进行运算。

当然,在TensorFlow的Broadcasting机制运行过程中,上述操作只是理论的,并不会真正的将a的形状变成(2,2,3,),更不会将每一行填充[1,2,3],只是虚拟进行操作,真正计算时,依旧是使用原来的张量a。这么做的好处是运算效率更高,也更节省内存。

再举一些例子加深理解:

  • [ ] A:(2d array): 5 x 4
  • [ ] B:(1d array): 1
  • [ ] Result:(2d array): 5 x 4

  • [ ] A:(2d array): 5 x 4
  • [ ] B:(1d array): 4
  • [ ] Result:(2d array): 5 x 4

  • [ ] A:(3d array): 15 x 3 x 5
  • [ ] B:(3d array): 15 x 1 x 5
  • [ ] Result:(3d array): 15 x 3 x 5

  • [ ] A:(3d array): 15 x 3 x 5
  • [ ] B:(2d array): 3 x 5
  • [ ] Result:(3d array): 15 x 3 x 5

  • [ ] A:(3d array): 15 x 3 x 5
  • [ ] B:(2d array): 3 x 1
  • [ ] Result:(3d array): 15 x 3 x 5

一些反例(不满足 Broadcasting 规则 ):

  • [ ] A (1d array): 3
  • [ ] B (1d array): 4

  • [ ] A (2d array): 2 x 1
  • [ ] B (3d array): 8 x 4 x 3

5 范数

范数是泛函分析中的概念,指的是一种更宽泛的长度(距离)概念,只要满足非负、自反、三角不等式就可以称之为距离。向量的范数可以使用下面公式进行计算:

当时分别叫做1范数,2范数。除此以外,还有无穷范数:

import tensorflow as tf
a = tf.constant([[1.,2.],[1.,2.]])
tf.norm(a, ord=1)  # 1范数
tf.norm(a, ord=2)  # 2范数
tf.norm(a)  # ord不指定时,默认是2

我们也可以全手动地实现范数:

tf.sqrt(tf.reduce_sum(tf.square(a)))

指定维度求范数:

tf.norm(a, ord=2, axis=0)
tf.norm(a, ord=2, axis=1)

参考

https://lufficc.com/blog/tensorflow-and-numpy-broadcasting

作者博客:

https://www.cnblogs.com/chenhuabin

作者github:

https://github.com/ChenHuabin321/tensorflow2_tutorials

大家好,我是老表
觉得本文不错的话,转发、留言、点赞,是对我最大的支持。

9413acf911cd14a95b27868bb521f5ab.png

每日 留言 说说你读完本文感受? 或者一句激励自己的话? (字数不少于15字) 怎么加入刻意学习队伍 点我,看文末彩蛋 留言 有啥 福利 点我就知道了 想进学 习交流 群 加 微信: jjxksa888 :简说Python 2小时快速掌握Python基础知识要点

完整Python基础知识要点

Python小知识 | 这些技能你不会?(一) Python小知识 | 这些技能你不会?(二) Python小知识 | 这些技能你不会?(三) Python小知识 | 这些技能你不会?(四)
近期推荐阅读:
【1】整理了我开始分享学习笔记到现在超过250篇优质文章,涵盖数据分析、爬虫、机器学习等方面,别再说不知道该从哪开始,实战哪里找了

【2】【终篇】Pandas中文官方文档:基础用法6(含1-5)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值