1.选择:B
解析:由于代价函数上升了,所以应该减少学习速率,选择B
A并不需要代价函数总是减少,只是可能会降低 故错误。B在运行随机梯度下降算法前最好将样本打乱随机化,正确。C也就随机的优点正确。D并行可不是随机的优点,是映射约减的优点,故错误。
3.选择:CD
解析:A并不一定需要大量的存储空间,如果有连续的大量的数据就不用存储所有数据,故错误。B在线学习也是需要学习速率的,因为更新参数需要alpha,故错误。CD在线学习运作原理如是,故正确。
A:在线学习的优势之一是,如果我们正在建模的功能随着时间的推移而改变(例如,如果我们对用户单击不同url的概率进行建模,并且用户的品味/偏好随着时间的推移而变化),在线学习算法将自动适应这些变化。 对的
B:在线学习算法通常最适合解决问题,因为我们有源源不断的数据,我们想要从中学习 对的
C:在使用在线学习时,您必须保存您所得到的每一个新的培训示例,因为您将需要重用过去的示例来重新培训模型,即使您在将来获得了新的培训示例之后。 错误
D: 当我们有一个固定的训练集时,在线学习算法是最合适的 错误
4.选择:AC
解析:可以用映射约减算法的有用批量梯度下降的逻辑回归,凡是要计算大量值的算法,用随机梯度下降不用计算大量的值故选AC
使用批量梯度下降训练的神经网络
线性回归训练使用批量梯度下降法
5.选择:ABC
解析:map-reduce:什么都没有就没法帮你了啊。用N台电脑比用一台,要快不到N倍。用一台计算机统计其他计算出来的数据。神经网络也要计算代价函数也要有大量计算,所以神经网络也可以并行计算。