大家好,这次给大家翻译的是来自 Coursera,由 deeplearning.ai 提供的 TensorFlow in Practice 的课程系列的QUIZ部分
本文来源:www.kesci.com
该系列课程共分为4个专项
一、人工智能、机器学习和深度学习的TensorFlow简介
二、TensorFlow中的卷积神经网络
三、TensorFlow中的自然语言处理
四、序列、时间序列与预测
原教程链接在此:TensorFlow in Practice 专项课程
教大家在机器学习的不同方向如何应用TensorFlow。课程前7天是免费的,之后按月收费,所以如果我学得够快,月费就追不上我嘿嘿嘿。
话说回这次翻译的QUIZ部分,个人感觉偏基础,问了很多函数调用的细节,夹杂一些很迷的问题比如“Fashion MNIST数据集中有多少张图片?”。但总体而言适合新手上路查漏补缺。
由于这次题目数量比较多,知乎版本进行了删减。主要删去了一些蜜汁问题,以及随机选中的一些幸运儿,完整版请移步和鲸社区(阅读原文)
114题精选
第 4 题
什么是Dense?
A.质量除以体积
B.单个神经元
C.一层连接的神经元
D.一层不连接的神经元
第 5 题
Loss函数是用来做什么的?
A.生成预测结果
B.决定是否停止神经网络的训练
C.评价现有的预测
D.评判你猜对没
第 6 题
优化器是用来做什么的
A.生成更新的优化的预测
B.决定是否停止神经网络的训练
C.评价现有的预测
D.找出如何有效地编译代码
第 7 题
什么是Convergence?
A.下一部《星球大战》电影中的坏蛋
B.损失急剧增加
C.接近正确答案的过程
D.AI的编程API
第 8 题
model.fit是用来做什么的?
A.它训练神经网络将一组值转换为另一组
B.它使模型可以记忆
C.优化一个已经存在的模型
D.它确定您的运动是否对身体有益
上5题答案
4.C 5.C 6.A 7.C 8.A
第 17 题
什么是卷积?
A.缩小图像的技术
B.放大图像的技术
C.隔离图像特征的技术
D.过滤掉不需要的图像的技术、
第 18 题
什么是池化?
A.隔离图像特征的技术
B.一种在保持特征的同时减少图像信息的技术
C.一种使图像更清晰的技术
D.组合图片的技术
第 19 题
卷积如何改善图像识别?
A.它们使图像变小
B.它们使图像处理更快
C.它们使图像更清晰
D.它们隔离图像中的特征
第 20 题
在28x28的图像上使用3x3的过滤器后,输出将是多少?
A.31x31
B.25x25
C.28x28
D.26x26
第 22 题
在神经网络一开始应用卷积层将使训练:
A.更快
B.这取决于许多因素。它可能会使您的训练更快或更慢,并且设计不良的卷积层可能甚至比普通的DNN还低效!
C.更慢
D.持平
上5题答案
17.C 18.B 19.D 20.D 22.B
第 26 题
当我们将input_shape指定为(300,300,3)时,这意味着什么?
A.将有300匹马和300名人类,分3批
B.将有300张图片,每个尺寸300,分3批
C.每个图像将为300x300像素,有3个通道
D.每个图像将为300x300像素,并且应该有3个卷积层
第 29 题
缩小图像尺寸后,训练结果有所不同。为什么?
A.图片的信息变少了
B.我们删除了一些卷积以处理较小的图像
C.图像中压缩了更多信息
D.训练更快
第 33 题
如果我想查看训练的历史记录,该如何访问?
A.创建一个变量“history”,并将其分配给model.t或model.t_generator的返回值
B.将参数“ history = true”传递给model.t
C.下载模型并检查
D.使用model.t_generator
第 35 题
当检查数据时,损失在2个周期后稳定在大约0.75,但在15个周期后精度上升到接近1.0。这代表了什么?
A.2周期后的训练是没有意义的,因为我们过拟合了验证数据
B.2周期后的训练是没有意义的,因为我们过拟合了训练数据
C.更大的训练集将使我们具有更好的验证准确性
D.更大的验证集将使我们具有更好的训练准确性
第 37 题
为什么在较小的数据集上更容易出现过拟合现象?
A.因为在较小的数据集中,您的验证数据更有可能和训练数据类似
B.因为没有足够的数据来激活所有卷积或神经元
C.因为使用较少的数据,训练会更快地进行,并且某些功能可能会丢失
D.因为在训练过程中遇到所有可能特征的可能性较小
上5题答案
26.C 29.A 33.A B 35 37.D
第 39 题
如果我的训练数据中只有面朝左的人,但我想对面朝右的人进行分类,我该如何避免过拟合?
A.在Y轴上使用“ ip_vertical”参数
B.使用“ horizontal_ip”参数
C.使用“ ip”参数
D.使用“ ip”参数并设置“水平”
第 40 题
使用增强训练时,您注意到训练会慢一些。为什么?
A.因为有更多数据需要训练
B.因为扩充后的数据更大
C.因为图像处理需要周期
D.因为训练会犯更多错误
第 42 题
将Image Augmentation与ImageDataGenerator一起使用时,磁盘上的原始图像数据会发生什么情况?
A.它会被覆盖,因此请务必进行备份
B.制作副本并对该副本进行扩充
C.没什么,所有扩充都在内存中完成
D.它被删除
第 43 题
图像增强如何帮助解决过拟合?
A.它减慢了训练过程
B.它操纵训练集,为图像中的特征生成更多场景
C.它操纵验证集为图像中的特征生成更多场景
D.通过图像处理技术找到特征,自动将特征拟合到图像
第 45 题
使用“图像增强”有效地模拟具有较大数据集的训练
A.不对
B.对
上5题答案
39.B 40.C 42.C 43.B 45.B
第 47 题
为什么迁移学习有用?
A.因为我可以使用原始训练集中的所有数据
B.因为我可以使用原始验证集中的所有数据
C.因为我可以使用从大型数据集中学习到的,我可能无法获得的特征
D.因为我可以使用可能无法访问的大型数据集中的验证数据
第 49 题
使用迁移学习时,如何更改模型可以分类的数量?(即处理的原始模型可以处理1000个分类,但您只处理2个分类)
A.忽略所有高于您的类别(即,2之后的类都算2)
B.使用所有类,但将其权重设置为0
C.当您在网络底部添加DNN时,用您所拥有的类数来指定输出层
D.使用dropout消除不必要的类
第 50 题
您可以在迁移学习模型中使用图像增强吗?
A.否,因为您正在使用预设功能
B.是的,因为您要在网络底部添加新层,并且能在训练这些层的时候使用图像增强
第 51 题
为何dropout有助于避免过拟合?
A.因为邻居神经元的权重可能相似,因此可能会影响最终训练的准确性
B.减少神经元可加快训练速度
第 52 题
dropout设置过高会有什么现象?
A.网络将失去专业性,从而导致学习效率低下或效率低下,从而降低准确性
B.训练时间将增加,这是因为dropout高需要额外的计算
上5题答案
47.C 49.C 50.B 51.A 52.A
第 59 题
如果您没有在词汇表中使用token,那么编码时会发生什么?
A.该单词未编码,序列化结束
B.这个词被最常见的token代替
C.这个单词没有经过编码,因此会被跳过
D.该单词未编码,序列中被替换为0
第 60 题
如果您有许多不同长度的序列,当将它们输入到神经网络时,如何确保它们被理解?
A.使用token生成器的pad_sequences方法确保它们的长度都相同
B.使用tensorflow.keras.preprocessing.sequence命名空间中的pad_sequences对象
C.指定神经网络的输入层以期望dynamic_length有不同大小
D.使用pad_sequences属性在神经网络的输入层上对其进行处理
第 61 题
如果您有许多长度不同的序列,并在其上调用pad_sequences,默认结果是什么?
A.没什么,他们会保持不变
B.通过将零添加到较短序列的开头,它们将填充到最长序列的长度
C.它们会被裁剪到最短序列的长度
D.通过在较短的序列末尾添加零,可以将它们填充到最长序列的长度中
第 62 题
在填充序列时,如果您希望填充位于序列的末尾,该如何做?
A.调用pad_sequences对象的padding方法,传递“ after”
B.初始化时将padding ='post'传递至pad_sequences
C.调用pad_sequences对象的padding方法,传递“ post”
D.初始化时将padding =“ after”传递给pad_sequences
第 66 题
Embedding维数是什么?
A.它是表示单词编码的向量的维数
B.它是单词中字母的数量,表示编码的大小
C.是嵌入中要编码的单词数
D.它是对语料库中的每个单词进行编码所需的维数
上5题答案
59.C 60.B 61.B 62.B 66.A
第 71 题
为什么顺序在确定语言的语义时有很大的影响?
A.并不
B.因为单词出现的顺序决定了它们的含义
C.因为单词顺序无关紧要
D.因为单词出现的顺序决定了它们对句子含义的影响
第 73 题
当句子中相互限定的单词不一定彼此并排时,LSTM如何帮助理解含义?
A.他们将所有单词加载到单元格状态
B.并没帮助
C.他们随机打乱单词
D.较早单词的值可以通过单元状态传递给较晚单词
第 78 题
避免NLP数据集过度拟合的最佳方法是什么?
A.LSTMs
B.GRUs
C.Conv1D
D.以上都不
第 79 题
当预测单词产生诗歌时,预测的单词越多,最终产生乱码的可能性就越大。为什么?
A.因为预测的可能性增加,因此总体上增加了
B.不会,乱码的可能性不会改变
C.创建的单词越多,每个单词与现有短语匹配的概率下降
D.因为您更有可能击中不在训练集中的单词
第 80 题
基于单词的训练而不是基于字符的生成的主要缺点是什么?
A.基于字符的生成更准确,因为要预测的字符较少
B.基于单词的生成更加准确,因为可以从中提取更大的单词
C.没有主要缺点,进行基于单词的训练总是更好
D.由于典型语料库中的单词比字符多得多,因此占用大量内存
上5题答案
71.D 73.D 78.D 79.C 80.D
第 86 题
什么是趋势?
A.数据的总体方向,与方向无关
B.数据的整体一致向下方向
C.数据的总体统一方向
D.数据整体向上一致
第 87 题
在时间序列的背景下,什么是噪声?
A.时间序列数据的不可预测的变化
B.没有趋势的数据
C.声波形成一个时间序列
D.没有季节性的数据
第 88 题
什么是自相关?
A.数据遵循可预测的形状,即使比例不同
B.季节性自动排列的数据
C.自动按趋势排列的数据
D.没有噪音的数据
第 89 题
什么是非平稳时间序列?
A.具有建设性事件形成趋势和季节性
B.一个具有破坏性事件,突破趋势和季节性的事件
C.在所有季节都一致的一种
D.一个季节性移动
第 90 题
什么是窗口数据集?
A.没有这种东西
B.时间序列与固定形状对齐
C.时间序列的固定大小一个子集
D.一系列时间序列的子集
上5题答案
86.A 87.A 88.A 89.B 90.C
第 101 题
神经网络中的Lambda层有什么作用?
A.允许您在训练时执行任意代码
B.神经网络中没有Lambda层
C.更改输入或输出数据的形状
D.暂停训练而无需回调
第 104 题
浅显的RNN和LSTM之间的主要区别是什么
A.LSTM具有单个输出,RNN具有多个输出
B.除了H输出外,LSTM的单元状态贯穿所有单元
C.除了H输出外,RNN的单元状态贯穿所有单元
D.LSTM具有多个输出,RNN具有单个输出
第 106 题
如果用这两层定义一个神经网络会怎样?
tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(32)),
tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(32)),
tf.keras.layers.Dense(1),
A.您的模型将编译并正确运行
B.您的模型将失败,因为在第一个LSTM层之后需要return_sequences = True
C.您的模型将失败,因为在每个LSTM层之后都需要return_sequences = True
D.您的模型将失败,因为每个LSTM中具有相同数量的单元
第 107 题
如何为模型添加一维卷积以预测时间序列数据?
A.使用1DConvolution类型
B.使用Conv1D类型
C.使用Convolution1D类型
D.使用1DConv类型
第 114 题
为什么MAE是较好的衡量时间序列预测准确性的方法?
A.它偏向于小错误
B.它不会像平方误差那样严重惩罚较大的误差
C.它惩罚更大的错误
D.它只计算正错误
上5题答案
101.A 104.B 106.B 107.B 114.B
完整版在和鲸社区:
www.kesci.com(阅读原文)
往期精彩回顾
适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记等资料打印机器学习在线手册深度学习笔记专辑AI基础下载(pdf更新到25集)机器学习的数学基础专辑获取一折本站知识星球优惠券,复制链接直接打开:https://t.zsxq.com/yFQV7am本站qq群1003271085,加入微信群请扫码喜欢文章,点个在看