点击上方“Python爬虫与数据挖掘”,进行关注
回复“书籍”即可获赠Python从入门到进阶共10本电子书
今
日
鸡
汤
兼听则明,偏信则暗。--《资治通鉴》
最近翻译了吴恩达《机器学习》课程的配套题库。课程系列本身多有名多经典我就不赘述啦~
主要是我发现,现在市面上基本都是课程和编程题的翻译版,很少有人翻译测验(quiz)的题。但最近我亲测感受了一下,这套题其实有点东西,考点非常细腻。新手配合教程使用,可以更好地学习知识;老手在错到怀疑人生的同时,可以帮你回顾理论知识。所以就给大家搬来啦~
另外,因为里面有一部分比较水基础的题,所以我酌情搬了节选。
完整版的请点击“阅读原文”
答案请关注公众号,回复“吴恩达”
第 16 题
假设m=4个学生上了一节课,有期中考试和期末考试。你已经收集了他们在两次考试中的分数数据集,如下所示:
期中得分 | (期中得分)^2 | 期末得分 |
---|---|---|
89 | 7921 | 96 |
72 | 5184 | 74 |
94 | 8836 | 87 |
69 | 4761 | 78 |
你想用多项式回归来预测一个学生的期中考试成绩。具体地说,假设你想拟合一个 的模型,其中x1是期中得分,x2是(期中得分)^2。此外,你计划同时使用特征缩放(除以特征的“最大值-最小值”或范围)和均值归一化。
标准化后的 特征值是多少?(提示:期中=89,期末=96是训练示例1)
第 17 题
用 进行15次梯度下降迭代,每次迭代后计算 。你会发现 的值下降缓慢,并且在15次迭代后仍在下降。基于此,以下哪个结论似乎最可信?
A. 是学习率的有效选择。
B. 与其使用 当前值,不如尝试更小的 值(比如 )
C. 与其使用 当前值,不如尝试更大的 值(比如 )
第 18 题
假设您有m=14个训练示例,有n=3个特性(不包括需要另外添加的恒为1的截距项),正规方程是 。对于给定m和n的值,这个方程中 的维数分别是多少?
A. 14×3, 14×1, 3×3 B. 14×4, 14×1, 4×1 C. 14×3, 14×1, 3×1 D. 14×4, 14×4, 4×4
第 19 题
假设您有一个数据集,每个示例有m=1000000个示例和n=200000个特性。你想用多元线性回归来拟合参数 到我们的数据。你更应该用梯度下降还是正规方程?
A. 梯度下降,因为正规方程中 中计算非常慢
B. 正规方程,因为它提供了一种直接求解的有效方法
C. 梯度下降,因为它总是收敛到最优
D. 正规方程,因为梯度下降可能无法找到最优
第 20 题
以下哪些是使用特征缩放的原因?
A. 它可以防止梯度下降陷入局部最优
B. 它通过降低梯度下降的每次迭代的计算成本来加速梯度下降
C. 它通过减少迭代次数来获得一个好的解,从而加快了梯度下降的速度
D. 它防止矩阵 (用于正规方程)不可逆(奇异/退化)
第 27 题
假设您有以下训练集,并拟合logistic回归分类器
以下哪项是正确的?选出所有正确项
A. 添加多项式特征(例如,使用)可以增加我们拟合训练数据的程度
B. 在 的最佳值(例如,由fminunc找到)处,
C.添加多项式特征(例如,使用将增加 ,因为我们现在正在对更多项进行求和
D.如果我们训练梯度下降迭代足够多次,对于训练集中的一些例子 ,可能得到
第 28 题
对于逻辑回归,梯度由给出。以下哪项是学习率为 的逻辑回归的正确梯度下降更新?选出所有正确项
A.
B. (同时更新所有 )
C. (同时更新所有 )
D. (同时更新所有 )
第 29 题
以下哪项陈述是正确的?选出所有正确项
A. 对于逻辑回归,梯度下降有时会收敛到一个局部最小值(并且无法找到全局最小值)。这就是为什么我们更喜欢更先进的优化算法,如fminunc(共轭梯度/BFGS/L-BFGS/等等)
B. sigmoid函数 数值永远不会大于1
C.用 个例子训练的逻辑回归的代价函数 总是大于或等于零
D. 使用线性回归+阈值的方法做分类预测,总是很有效的
第 31 题
你正在训练一个分类逻辑回归模型。以下哪项陈述是正确的?选出所有正确项
A. 将正则化引入到模型中,总是能在训练集上获得相同或更好的性能
B. 在模型中添加许多新特性有助于防止训练集过度拟合
C. 将正则化引入到模型中,对于训练集中没有的例子,总是可以获得相同或更好的性能
D. 向模型中添加新特征总是会在训练集上获得相同或更好的性能
第 31 题
你正在训练一个分类逻辑回归模型。以下哪项陈述是正确的?选出所有正确项
A. 将正则化引入到模型中,总是能在训练集上获得相同或更好的性能
B. 在模型中添加许多新特性有助于防止训练集过度拟合
C. 将正则化引入到模型中,对于训练集中没有的例子,总是可以获得相同或更好的性能
D. 向模型中添加新特征总是会在训练集上获得相同或更好的性能
第 32 题
假设您进行了两次逻辑回归,一次是 ,一次是 。其中一次,得到参数 ,另一次,得到 。但是,您忘记了哪个 值对应于哪个 值。你认为哪个对应?
A.
B.
第 33 题
以下关于正则化的陈述哪一个是正确的?选出所有正确项
A. 使用太大的 值可能会导致您的假设与数据过拟合;这可以通过减小 来避免
B. 使用非常大的值 不会影响假设的性能;我们不将 设置为太大的唯一原因是避免数值问题
C. 考虑一个分类问题。添加正则化可能会导致分类器错误地分类某些训练示例(当不使用正则化时,即当 时,它正确地分类了这些示例)
D. 由于逻辑回归的输出值 ,其输出值的范围无论如何只能通过正则化来“缩小”一点,因此正则化通常对其没有帮助
第 36 题
以下哪项陈述是正确的?选择所有正确项
A. 神经网络中隐藏单元的激活值,在应用了sigmoid函数之后,总是在(0,1)范围内
B. 在二进制值(0或1)上的逻辑函数可以(近似)用一些神经网络来表示
C. 两层(一个输入层,一个输出层,没有隐藏层)神经网络可以表示异或函数
D. 假设有一个三个类的多类分类问题,使用三层网络进行训练。设 为第一输出单元的激活,并且类似地,有 和 。那么对于任何输入x,必须有
第 37 题
考虑以下两个二值输入 和输出 的神经网络。它(近似)计算了下列哪一个逻辑函数?
A. ORB. AND
C. NAND (与非)
D. XOR (异或)
第 38 题
考虑下面给出的神经网络。下列哪个方程正确地计算了 的激活?注: 是sigmoid激活函数
A.
B.
C.
D. 此网络中不存在激活
第 39 题
你有以下神经网络:
你想计算隐藏层 的激活,一种方法是使用以下Octave代码:
您需要一个矢量化的实现(即,一个不用循环的实现)。下列哪个实现正确计算 ?选出所有正确项
A. z = Theta1 * x; a2 = sigmoid (z)
B. a2 = sigmoid (x * Theta1)
C. a2 = sigmoid (Theta2 * x)
D. z = sigmoid(x); a2 = sigmoid (Theta1 * z)
第 40 题
您正在使用下图所示的神经网络,并已学习参数 (用于计算 )和 (用于作用在 的函数,计算 的值)。
假设您交换第一个隐藏层的2个单元的参数 ,并且还交换输出层 。这将如何改变输出 的值?
A. 不变 B. 变大 C. 变小 D. 信息不全,可能变大也可能变小
第 41 题
您正在训练一个三层神经网络,希望使用反向传播来计算代价函数的梯度。在反向传播算法中,其中一个步骤是更新 对于每个i,j,下面哪一个是这个步骤的正确矢量化?
A.
B.
C.
D.
第 43 题
设 ,设 。用公式 来数值计算在 时的逼近。你将得到什么值?(当 时,精确导数为 )
A. 8 B. 6 C. 5.9998 D. 6.0002
第 44 题
以下哪项陈述是正确的?选择所有正确项
A. 使用较大的 值不会影响神经网络的性能;我们不将 设置为太大的唯一原因是避免数值问题
B. 如果我们使用梯度下降作为优化算法,梯度检查是有用的。然而,如果我们使用一种先进的优化方法(例如在fminunc中),它没有多大用处
C. 使用梯度检查可以帮助验证反向传播的实现是否没有bug
D. 如果我们的神经网络过拟合训练集,一个合理的步骤是增加正则化参数
第 45 题
以下哪项陈述是正确的?选择所有正确项
A. 假设参数 是一个方矩阵(即行数等于列数)。如果我们用它的转置 代替 ,那么我们并没有改变网络正在计算的功能。
B. 假设我们有一个正确的反向传播实现,并且正在使用梯度下降训练一个神经网络。假设我们将 绘制为迭代次数的函数,并且发现它是递增的而不是递减的。一个可能的原因是学习率 太大。
C. 假设我们使用学习率为 的梯度下降。对于逻辑回归和线性回归, 是一个凸优化问题,因此我们不想选择过大的学习率 。然而,对于神经网络, 可能不是凸的,因此选择一个非常大的 值只能加快收敛速度。
D. 如果我们使用梯度下降训练一个神经网络,一个合理的调试步骤是将 绘制为迭代次数的函数,并确保每次迭代后它是递减的(或至少是不递增的)。
第 46 题
你训练一个学习算法,发现它在测试集上的误差很高。绘制学习曲线,并获得下图。算法是否存在高偏差、高方差或两者都不存在?
A. 高偏差 B. 高方差 C. 两者都不
第 47 题
假设您已经实现了正则化逻辑回归来分类图像中的对象(即,还没有实现图像识别)。然而,当你在一组新的图像上检验你的模型时,你会发现它对新图像的预测有误差非常大。然而,你的假设在训练集上拟合的很好。以下哪个做法可以改善?选出所有正确项
A. 尝试添加多项式特征
B. 获取更多训练示例
C. 尝试使用较少的特征
D. 少用训练的例子
第 48 题
假设您已经实现了正则化的逻辑来预测客户将在购物网站上购买哪些商品。然而,当你在一组新的客户身上测试你的模型时,你发现它在预测中的误差很大。此外,该模型在训练集上表现不佳。以下哪个做法可以改善?选出所有正确项
A. 尝试获取并使用其他特征
B. 尝试添加多项式特征
C. 尝试使用较少的特征
D. 尝试增加正则化参数
第 49 题
以下哪项陈述是正确的?选出所有正确项
A. 假设您正在训练一个正则化的线性回归模型。选择正则化参数 值的推荐方法是选择交叉验证误差最小的 值。
B. 假设您正在训练一个正则化的线性回归模型。选择正则化参数 值的推荐方法是选择给出最小测试集误差的 值。
C. 假设你正在训练一个正则化线性回归模型,推荐的选择正则化参数 值的方法是选择给出最小训练集误差的 值。
D. 学习算法在训练集上的性能通常比在测试集上的性能要好。
第 50 题
以下哪项陈述是正确的?选出所有正确项
A. 在调试学习算法时,绘制学习曲线有助于了解是否存在高偏差或高方差问题。
B. 如果一个学习算法受到高方差的影响,增加更多的训练实例可能会改善测试误差。
C. 我们总是喜欢高方差的模型(而不是高偏差的模型),因为它们能够更好地适应训练集。
D. 如果一个学习算法有很高的偏差,仅仅增加更多的训练实例可能不会显著改善测试误差。
第 53 题
假设您已经训练了一个输出 的逻辑回归分类器。目前,如果 ,则预测1, 如果 ,则预测0,当前阈值设置为0.5。
假设您将阈值增加到0.9。以下哪项是正确的?选出所有正确项
A. 现在分类器的精度可能更低。
B. 分类器的准确度和召回率可能不变,但准确度较低。
C. 分类器的准确度和召回率可能不变,但精度较高。
D. 分类器现在可能具有较低的召回率。
假设您将阈值降低到0.3。以下哪项是正确的?选出所有正确项
A. 分类器现在可能具有更高的召回率。
B. 分类器的准确度和召回率可能不变,但精度较高。
C. 分类器现在可能具有更高的精度。
D. 分类器的准确度和召回率可能不变,但准确度较低。
第 54 题
假设您正在使用垃圾邮件分类器,其中垃圾邮件是正例(y=1),非垃圾邮件是反例(y=0)。您有一组电子邮件训练集,其中99%的电子邮件是非垃圾邮件,另1%是垃圾邮件。以下哪项陈述是正确的?选出所有正确项
A. 一个好的分类器应该在交叉验证集上同时具有高精度precision和高召回率recall。
B. 如果您总是预测非垃圾邮件(输出y=0),那么您的分类器在训练集上的准确度accuracy将达到99%,而且它在交叉验证集上的性能可能类似。
C. 如果您总是预测非垃圾邮件(输出y=0),那么您的分类器的准确度accuracy将达到99%。
D. 如果您总是预测非垃圾邮件(输出y=0),那么您的分类器在训练集上的准确度accuracy将达到99%,但在交叉验证集上的准确率会更差,因为它过拟合训练数据。
第 55 题
以下哪项陈述是正确的?选出所有正确项
A. 在构建学习算法的第一个版本之前,花大量时间收集大量数据是一个好主意。
B. 在倾斜的数据集上(例如,当有更多的正面例子而不是负面例子时),准确度不是一个很好的性能度量,您应该根据准确度和召回率使用F1分数。
C. 训练完逻辑回归分类器后,必须使用0.5作为预测示例是正是负的阈值。
D. 使用一个非常大的训练集使得模型不太可能过度拟合训练数据。
E. 如果您的模型不适合训练集,那么获取更多数据可能会有帮助。
第 56 题
假设您使用训练了一个高斯内核的支持向量机,它在训练集上学习了以下决策边界:
你觉得支持向量机欠拟合了,你应该试着增加或减少 吗?或者增加或减少 ?
A. 降低 ,增加
B. 降低 ,降低
C. 增加 ,增加
D. 增加 ,降低
第 58 题
支持向量机求解,其中函数 和 图像如下:
目标中的第一项是: 如果以下四个条件中有两个为真,则第一项为零。使这个项等于零的两个条件是什么?
A. 对于 的每个例子,有
B. 对于 的每个例子,有
C. 对于 的每个例子,有
D. 对于 的每个例子,有
第 59 题
假设您有一个具有n=10个特征和m=5000个示例的数据集。在用梯度下降训练逻辑回归分类器之后,您发现它与训练集欠拟合,并且在训练集或交叉验证集上没有达到所需的性能。以下哪个步骤有望改善?选出所有正确项
A. 尝试使用具有大量隐藏单元的神经网络。
B. 减少训练集中的示例数。
C. 使用不同的优化方法,因为使用梯度下降训练逻辑可能会导致局部最小。
D. 创建/添加新的多项式特征。
第 60 题
以下哪项陈述是正确的?选出所有正确项
A. 假设您使用支持向量机进行多类分类,并希望使用“一对所有”方法。如果你有 个不同的类,你将训练 个不同的支持向量机。
B. 如果数据是线性可分的,那么不管 值是多少,线性内核的支持向量机都将返回相同的参数 (即, 的结果值不依赖于 )。
C. 高斯核的最大值(即 )是1。
D. 在使用高斯核之前进行特征归一化是很重要的。
第 63 题
K-means是一种迭代算法,在其内部循环中重复执行以下两个步骤。哪两个?
A. 移动簇中心,更新簇中心 。
B. 分配簇,其中参数 被更新。
C. 移动簇中心 ,将其设置为等于最近的训练示例
D. 簇中心分配步骤,其中每个簇质心 被分配(通过设置 )到最近的训练示例 。
第 64 题
假设您有一个未标记的数据集 。你用50个不同的随机数运行K-means初始化,并获得了50个不同的聚类。选择这50个组合中的哪一个的方法是什么?
A. 唯一的方法是我们需要数据标签 。
B. 对于每一个分类,计算 ,并选择这个值最小的一个。
C. 答案模棱两可,没有好的选择方法。
D. 总是选择找到的最后一个(第50个)聚类,因为它更有可能收敛到一个好的解决方案。
第 65 题
以下哪项陈述是正确的?选出所有正确项
A. 如果我们担心K-means陷入局部最优解,一种改善(减少)这个问题的方法是尝试使用多个随机初始化。
B. 初始化K-均值的标准方法是将 设置为等于零的向量。
C. 由于K-Means是一种无监督的学习算法,它不能对数据进行过度拟合,因此最好在计算上尽可能多的聚类。
D. 对于某些数据集,K(集群数量)的“正确”值可能是不明确的,甚至对于仔细查看数据的人类专家来说也很难做出决定。
E. 无论簇中心的初始化如何,K-均值都会给出相同的结果。
F. 初始化K-means的一个好方法是从训练集中选择K个(不同的)示例,并设置与这些选定示例相等的簇质心。
G. 在K-均值的每次迭代中,代价函数 (失真函数)要么保持不变,要么减小,特别是不应增加。
H. 一旦一个例子被分配到一个特定的簇中心,它将永远不会被重新分配到另一个不同的簇中心。
第 67 题
以下哪一项是选择主成分 数量的合理方法?(n是输入数据的维度mm是输入示例的数量)
A. 选择至少保留99%的方差的k的最小值
B. 选择k,使逼近误差。
C. 选择至少保留1%的方差的k的最小值
D. 选择k为99%的n(即 四舍五入至最接近的整数)。
第 68 题
假设有人告诉你,他们运行主成分分析的方式是“95%的方差被保留”,什么是与此等价的说法?
A.
B.
C.
D.
第 69 题
以下哪项陈述是正确的?选择所有正确项
A. 仅给出 和 ,就没有办法重建 的任何合理的近似。
B. 即使所有的输入特征都在非常相似的尺度上,在运行PCA之前,我们仍然应该执行均值归一化(这样每个特征的均值为零)。
C. PCA易受局部最优解的影响;尝试多次随机初始化可能会有所帮助。
D. 给定输入数据 ,仅用满足 的k值运行PCA是有意义的(特别是,用k=n运行PCA是可能的,但没有帮助, 没有意义)
第 70 题
以下哪项是PCA的推荐应用?选择所有正确项
A. 作为线性回归的替代:对于大多数模型应用,PCA和线性回归给出了基本相似的结果。
B. 数据压缩:减少数据的维数,从而减少占用的内存/磁盘空间。
C. 数据可视化:获取二维数据,并在二维中找到不同的绘制方法(使用k=2)。
D. 数据压缩:减少输入数据 的维数,该维数将用于监督学习算法(即,使用PCA以使监督学习算法运行更快)。
第 72 题
假设您已经训练了一个异常检测系统,当 时标记异常,并且您在交叉验证集中发现它有太多的误报(标记太多的东西为异常)。你该怎么办?
A. 增大 B. 减小
第 73 题
假设您正在开发一个异常检测系统来捕获飞机发动机中的制造缺陷。你的模型用。有两个特性 =振动强度, =产生的热量, 的值都在0到1之间(并且严格大于0)。对于大多数“正常”发动机,你期望 。其中一个可疑的异常是,即使不产生太多热量,发动机也会剧烈振动(大 ,小 ),即使 和 的特定值可能不在其典型值范围之外。您应该构造哪些特征 来捕获这些类型的异常:
A. B. C. D.
第 74 题
以下哪项是正确的?选择所有正确项
A. 如果没有任何标记的数据(或者如果所有数据都有标记 ),则仍然可以学习 ,但可能更难评估系统或选择一个好的值。
B. 如果你有一个带有许多正例子和许多负例子的训练集,那么异常检测算法的性能可能与有监督的学习算法(如支持向量机)一样好。
C. 如果您正在开发异常检测系统,则无法使用标记的数据来改进您的系统。
D. 在为异常检测系统选择特征时,最好为异常示例寻找具有异常大值或小值的特征。
第 75 题
您有一个一维数据集 ,并且希望检测数据集中的异常值。首先绘制数据集,它如下所示:
假设将高斯分布参数μ1μ1和σ21σ12拟合到此数据集。对于 ,可以得到下列哪个值?
A.
B.
C.
D.
第 76 题
假设你开了一家书店,对书的评级为(1到5星)。协作过滤算法为用户j学习了参数向量 ,为每本书学习了特征向量 。你需要计算“训练误差”,即你的系统对你从用户那里得到的所有评分的预测的平均平方误差。以下哪种方法是正确的(选出所有正确项)?对于这个问题,设m为您从用户那里获得的评分总数( 。
A.
B.
C.
D.
第 77 题
在下列哪种情况下,协同过滤系统是最合适的学习算法(与线性或逻辑回归相比)?
A. 你经营一家在线书店,收集许多用户的评价。你想用它来识别哪些书彼此“相似”(即,如果一个用户喜欢某本书,那么他可能也喜欢哪些书?)
B. 你管理一个在线书店,你有许多用户的书评。你想根据一本书的平均评分来预测预期的销售量(售出的书的数量)。
C. 你是个艺术家,为你的客户手绘肖像。每个客户都会得到不同的肖像(他们自己)并给你1-5星级的评价反馈,每个客户最多购买1幅肖像。你想预测下一个客户会给你什么样的评分。
D. 你开了一家服装店,出售许多款式和品牌的牛仔裤。你已经收集了经常购物者对不同款式和品牌的评论,你想用这些评论为那些购物者提供你认为他们最有可能购买的牛仔裤的折扣
第 78 题
你经营着一个电影公司,想要建立一个基于协同过滤的电影推荐系统。有三个受欢迎的评论网站(我们称之为A、B和C),用户可以去给电影打分。你刚刚收购了三家经营这些网站的公司,希望将三个公司的数据集合并在一起,以构建一个单一/统一的系统。在A网站上,用户将一部电影分为1到5颗星。在B网站上,用户的排名是1-10分,允许使用小数(如7.5)。在C网站,收视率从1到100。您还拥有足够的信息来识别一个网站上的用户/电影和另一个网站上的用户/电影。以下哪个陈述是正确的?
A. 您可以将三个数据集合并为一个数据集,但是您应该首先规范化每个数据集的评级(比如将每个数据集的评级重新调整为0-1范围)。
B. 只要在合并数据后执行平均规格化和特征缩放,就可以将所有三个训练集合并为一个。
C. 假设在一个数据库中至少有一个电影/用户没有出现在第二个数据库中,那么就没有合并这些数据集的合理方法,因为缺少数据。
D. 无法合并这些网站的数据。你必须建立三个独立的推荐系统。
第 79 题
以下哪项是协作过滤系统的正确选择?选出所有正确项
A. 基于内容的推荐算法的代价函数是。假设只有一个用户,他对训练集中的每一部电影都进行了分级。这意味着对于每个 ,有 和 。在这种情况下,成本函数 等价于用于正则化线性回归的函数。
B. 利用梯度下降训练协同过滤系统时,可以将所有参数( )初始化为零。
C. 如果你有一个用户对某些产品的评级数据集,你可以使用这些数据来预测他对没有评级的产品的偏好。
D. 要使用协作过滤,您需要为数据集中的每个项目(例如,电影)手动设计一个特征向量,该向量描述该项目最重要的属性。
第 80 题
假设有两个矩阵 ,其中 是5x3, 是3x5。它们的乘积是 ,一个5x5矩阵。此外,还有一个5x5矩阵R,其中每个条目都是0或1。你想找到所有元素 的和,对应的 是1,忽略所有 的元素 。一种方法是使用以下代码:
下面哪一段代码也能正确计算出这个总数?选出所有正确项
A. total = sum(sum((A * B) .* R))
B. C = A * B; total = sum(sum(C(R == 1)));
C. C = (A * B) * R; total = sum(C(:));
D. total = sum(sum(A(R == 1) * B(R == 1));
第 81 题
假设您正在使用随机梯度下降训练逻辑回归分类器。你发现在过去的500个例子中,成本(即 ,500个例子平均后)绘制为迭代次数的函数,随时间缓慢增加。以下哪项更改可能有帮助?
A. 试着在图中用较少的例子(比如250个例子而不是500个)来平均成本。
B. 这在随机梯度下降的情况下是不可能的,因为它保证收敛到最优参数 。
C. 尝试将学习率 减半(减少),看看这是否会导致成本持续下降;如果没有,继续减半直到成本会持续下降。
D. 从训练集中取更少的例子
第 82 题
下列关于随机梯度下降的陈述哪一个是正确的?选出所有正确项
A. 您可以使用数值梯度检查的方法来验证您的随机梯度下降实现是对的(随机梯度下降之中的一步是计算偏导数)
B. 在运行随机梯度下降之前,您应该随机洗牌(重新排序)训练集。
C. 假设您使用随机梯度下降来训练线性回归分类器。代价函数一定会随着每次迭代减小。
D. 为了确保随机梯度下降收敛,我们通常在每次迭代后计算 ,并绘制它,以确保成本函数总体上是递减的。
第 83 题
以下关于在线学习的陈述哪一个是正确的?选出所有正确项
A. 如果我们有一个连续/不间断的数据流,用在线学习算法通常是最适合的。
B. 当我们有一个大小为m的固定训练集需要训练时,在线学习算法是最合适的。
C. 使用在线学习时,您必须保存获得的每个训练例子,因为您将需要重用过去的示例来重新训练模型,即使在将来获得新的培训示例之后也是如此。
D. 在线学习的一个优点是,如果我们正在建模的功能随着时间的推移而变化(例如,如果我们正在建模用户单击不同URL的概率,并且用户的品味/偏好随着时间的推移而变化),在线学习算法将自动适应这些变化。
第 84 题
假设您有一个非常大的训练集,您认为以下哪种算法可以使用map-reduce和跨不同机器拆分训练集来并行化?选出所有正确项
A. 用随机梯度下降训练逻辑回归
B. 用随机梯度下降训练线性回归
C. 用批量梯度下降训练逻辑回归
D. 计算训练集中所有特征的平均值 (例如为了执行平均归一化)。
第 85 题
下面关于map-reduce的哪些语句是正确的?选出所有正确项
A. 由于网络延迟和其他与map-reduce相关的开销,如果我们使用N台计算机运行map-reduce,与使用1台计算机相比,我们可能会得到小于N倍的加速。
B. 如果您只有一台具有一个计算核心的计算机,那么map-reduce不太可能有帮助。
C. 当使用带梯度下降的map-reduce时,我们通常使用一台机器从每个map-reduce机器中累积梯度,以便计算该迭代的参数更新。
D. 线性回归和逻辑回归可以用map-reduce并行化,但神经网络训练不能。
第 88 题
进行上限分析有什么好处?选出所有正确项
A. 这是为算法提供额外训练数据的一种方法。
B. 使用上限分析能帮助我们分析流水线的哪个部分对整个系统的提高最大。
C. 使用上限分析能让我们知道到某个模块需不需要花精力做好;因为就算把这个模块精度提高到100%了,也无助于提高整个系统的精度。
D.使用上限分析并不会帮我们分析出哪个部分是high bias,哪个部分是high variance。
第 89 题
假设您正在构建一个对象分类器,它将图像作为输入,并将该图像识别为包含汽车(y=1y=1)或不包含汽车(y=0y=0)。例如,这里有正例和一个负例:
在仔细分析了算法的性能之后,你的结论是你需要更多正例( )。下面哪一个可能是获得更多正面例子的好方法?
A. 对现有训练集中的图像应用平移、扭曲和旋转。
B. 选择两个汽车图像并对其进行平均以生成第三个示例。
C. 从训练集中获取一些图像,并向每个像素添加随机高斯噪声。
D. 为训练集中的每个图像制作两份副本;这会立即使训练集大小加倍。
第 90 题
假设您有一个图片手写字符识别系统,其中有以下流水线:
A. 提高字符识别系统的性能是可能的。
B. 执行此处的上限分析,需要我们对其它的三个流程都加上标签来判断对错(ground-truth)。
C. 最没有前途的部分是字符识别系统,因为它已经获得了100%的准确率。
D. 最有前途的组件是文本检测系统,因为它的性能最低(72%),因此潜在增益最大。
再复读机一下
完整版的请点击“阅读原文”
答案请关注公众号,回复“吴恩达”
------------------- End -------------------
往期精彩文章推荐:
Python环境搭建—安利Python小白的Python和Pycharm安装详细教程
一篇文章教会你理解Scrapy网络爬虫框架的工作原理和数据采集过程
利用Python网络爬虫抓取微信好友的签名及其可视化展示
欢迎大家点赞,留言,转发,转载,感谢大家的相伴与支持
想加入Python学习群请在后台回复【入群】
万水千山总是情,点个【在看】行不行
/今日留言主题/
你对机器学习怎么看?