吴恩达-coursera-机器学习测试题第十七章-大规模机器学习

1.选择:B

解析:由于代价函数上升了,所以应该减少学习速率,选择B

 

 

A并不需要代价函数总是减少,只是可能会降低  故错误。B在运行随机梯度下降算法前最好将样本打乱随机化,正确。C也就随机的优点正确。D并行可不是随机的优点,是映射约减的优点,故错误。 

 

 3.选择:CD

解析:A并不一定需要大量的存储空间,如果有连续的大量的数据就不用存储所有数据,故错误。B在线学习也是需要学习速率的,因为更新参数需要alpha,故错误。CD在线学习运作原理如是,故正确。

 

A:在线学习的优势之一是,如果我们正在建模的功能随着时间的推移而改变(例如,如果我们对用户单击不同url的概率进行建模,并且用户的品味/偏好随着时间的推移而变化),在线学习算法将自动适应这些变化。  对的

 B:在线学习算法通常最适合解决问题,因为我们有源源不断的数据,我们想要从中学习      对的

C:在使用在线学习时,您必须保存您所得到的每一个新的培训示例,因为您将需要重用过去的示例来重新培训模型,即使您在将来获得了新的培训示例之后。  错误

 

D: 当我们有一个固定的训练集时,在线学习算法是最合适的  错误

 4.选择:AC

解析:可以用映射约减算法的有用批量梯度下降的逻辑回归,凡是要计算大量值的算法,用随机梯度下降不用计算大量的值故选AC

 

 使用批量梯度下降训练的神经网络

线性回归训练使用批量梯度下降法

 

5.选择:ABC

解析:map-reduce:什么都没有就没法帮你了啊。用N台电脑比用一台,要快不到N倍。用一台计算机统计其他计算出来的数据。神经网络也要计算代价函数也要有大量计算,所以神经网络也可以并行计算。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值