你即将了解到的大多数深度学习框架都会使用张量的概念,这样做的好处是统一对数据的定义。NumPy 中,数据都使用 Ndarray 多维数组进行定义,TensorFlow 中,数据都会用张量进行表述。
下面就来了解 TensorFlow 中对张量的定义。
在 TensorFlow 中,每一个 Tensor 都具备两个基础属性:
-
数据类型(默认:float32)
-
形状
其中,数据类型大致如下表所示:
| Tensor 类型 | 描述 |
| :-: | :-: |
| tf.float32
| 32 位浮点数 |
| tf.float64
| 64 位浮点数 |
| tf.int64
| 64 位有符号整型 |
| tf.int32
| 32 位有符号整型 |
| tf.int16
| 16 位有符号整型 |
| tf.int8
| 8 位有符号整型 |
| tf.uint8
| 8 位无符号整型 |
| tf.string
| 可变长度的字节数组 |
| tf.bool
| 布尔型 |
| tf.complex64
| 实数和虚数 |
另外,TensorFlow 通过三种符号约定来描述张量维度:阶,形状和维数。
三者之间的关系如下:
| 形状 | 阶 | 维数 | 示例 |
| :-: | :-: | :-: | :-: |
| [] | 0 | 0-D | 0 维张量。标量。 |
| [D0] | 1 | 1-D | 形状为 [5] 的 1 维张量。 |
| [D0, D1] | 2 | 2-D | 形状为 [3, 4] 的 2 维张量。 |
| [D0, D1, D2] | 3 | 3-D | 形状为 [1, 4, 3] 的 3 维张量。 |
| [D0, D1, … Dn-1] | n | n-D | 形状为 [D0, D1, … Dn-1] 的张量。 |
值得注意的是,上表中的示例都是形容张量的形状。例如 [3, 4]
指的张量的形状为 [3, 4]
,而不是张量 [3, 4]
。
根据不同的用途,TensorFlow 中主要有 2 种张量类型,分别是:
-
tf.Variable
:变量 Tensor,需要指定初始值,常用于定义可变参数,例如神经网络的权重。 -
tf.constant
:常量 Tensor,需要指定初始值,定义不变化的张量。
我们可以通过传入列表或 NumPy 数组来新建变量和常量类型的张量
(1)查看 TensorFlow 版本:
(2)定义形状为 (3, 3) 的二维变量:
(3)定义现状为 (2,2) 二维常量
仔细观察,你会发现输出包含了张量的 3 部分属性,分别是
-
形状
shape
-
数据类型
dtype
, -
对应的 NumPy 数组。
你还可以直接通过 .numpy()
输出张量的 NumPy 数组。
上面我们已经介绍了常量张量,这里再列举几个经常会用到的新建特殊常量张量的方法:
-
tf.zeros
:新建指定形状且全为 0 的常量 Tensor -
tf.zeros_like
:参考某种形状,新建全为 0 的常量 Tensor -
tf.ones
:新建指定形状且全为 1 的常量 Tensor -
tf.ones_like
:参考某种形状,新建全为 1 的常量 Tensor -
tf.fill
:新建一个指定形状且全为某个标量值的常量 Tensor
(1)3x3 全为 0 的常量 Tensor
(2)c 形状一致全为 1 的常量 Tensor
(3)2x3 全为 6 的常量 Tensor
除此之外,我们还可以创建一些序列,例如:
-
tf.linspace
:创建一个等间隔序列。 -
tf.range
:创建一个数字序列。
实际上,如果你熟悉 NumPy 的话,你会发现这与 NumPy 中创建各式各样的多维数组方法大同小异。数据类型是一切的基础,了解完张量我们就可以继续学习张量的运算了。
TensorFlow 2 带来的最大改变之一是将 1.x 的 Graph Execution(图与会话机制)更改为 Eager Execution(动态图机制)。在 1.x 版本中,低级别 TensorFlow API 首先需要定义数据流图,然后再创建 TensorFlow 会话,这一点在 2.0 中被完全舍弃。
TensorFlow 2 中的 Eager Execution 是一种命令式编程环境,可立即评估操作,无需构建图。
所以说,TensorFlow 的张量运算过程可以像 NumPy 一样直观且自然了。接下来,我们以最简单的加法运算为例:
如果你接触过 1.x 版本的 TensorFlow,你要知道一个加法运算过程十分复杂。我们需要初始化全局变量 → 建立会话 → 执行计算,最终才能打印出张量的运算结果。
init_op = tf.global_variables_initializer() # 初始化全局变量
with tf.Session() as sess: # 启动会话
sess.run(init_op)
print(sess.run(c + c)) # 执行计算
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数前端工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Web前端开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加V:vip1024c 备注前端获取(资料价值较高,非无偿)
这里分享一份由字节前端面试官整理的「2021大厂前端面试手册」,内容囊括Html、CSS、Javascript、Vue、HTTP、浏览器面试题、数据结构与算法。全部整理在下方文档中,共计111道
HTML
-
HTML5有哪些新特性?
-
Doctype作⽤? 严格模式与混杂模式如何区分?它们有何意义?
-
如何实现浏览器内多个标签页之间的通信?
-
⾏内元素有哪些?块级元素有哪些? 空(void)元素有那些?⾏内元 素和块级元素有什么区别?
-
简述⼀下src与href的区别?
-
cookies,sessionStorage,localStorage 的区别?
-
HTML5 的离线储存的使用和原理?
-
怎样处理 移动端 1px 被 渲染成 2px 问题?
-
iframe 的优缺点?
-
Canvas 和 SVG 图形的区别是什么?
JavaScript
开源分享:【大厂前端面试题解析+核心总结学习笔记+真实项目实战+最新讲解视频】
-
问:0.1 + 0.2 === 0.3 嘛?为什么?
-
JS 数据类型
-
写代码:实现函数能够深度克隆基本类型
-
事件流
-
事件是如何实现的?
-
new 一个函数发生了什么
-
什么是作用域?
-
JS 隐式转换,显示转换
-
了解 this 嘛,bind,call,apply 具体指什么
-
手写 bind、apply、call
-
setTimeout(fn, 0)多久才执行,Event Loop
-
手写题:Promise 原理
-
说一下原型链和原型链的继承吧
-
数组能够调用的函数有那些?
-
PWA使用过吗?serviceWorker的使用原理是啥?
-
ES6 之前使用 prototype 实现继承
-
箭头函数和普通函数有啥区别?箭头函数能当构造函数吗?
-
事件循环机制 (Event Loop)
pply 具体指什么
-
手写 bind、apply、call
-
setTimeout(fn, 0)多久才执行,Event Loop
-
手写题:Promise 原理
-
说一下原型链和原型链的继承吧
-
数组能够调用的函数有那些?
-
PWA使用过吗?serviceWorker的使用原理是啥?
-
ES6 之前使用 prototype 实现继承
-
箭头函数和普通函数有啥区别?箭头函数能当构造函数吗?
-
事件循环机制 (Event Loop)