【吴恩达deeplearning.ai】Course 5 - 序列模型 - 第二周测验

1.假设你为10000个单词学习词嵌入,为了捕获全部范围的单词的变化以及意义,那么词嵌入向量应该是10000维的。

【 】 正确
【★】 错误

2.什么是t-SNE?

【★】 一种非线性降维算法。
【 】 一种能够解决词向量上的类比的线性变换。
【 】 一种用于学习词嵌入的监督学习算法。
【 】 一个开源序列模型库。

3.假设你下载了一个已经在一个很大的文本语料库上训练过的词嵌入的数据,然后你要用这个词嵌入来训练RNN并用于识别一段文字中的情感,判断这段文字的内容是否表达了“快乐”。
在这里插入图片描述
  那么即使“欣喜若狂”这个词没有出现在你的小训练集中,你的RNN也会认为“我欣喜若狂”应该被贴上 y = 1 y = 1 y=1的标签。
【★】 正确
【 】 错误

4.对于词嵌入而言,下面哪一个(些)方程是成立的?

【★】 e b o y − e g i r l ≈ e b r o t h e r − e s i s t e r e_{boy} - e_{girl} ≈ e_{brother} - e_{sister} eboyegirlebrotheresister

【 】 e b o y − e g i r l ≈ e s i s t e r − e b r o t h e r e_{boy} - e_{girl} ≈ e_{sister} - e_{brother} eboyegirlesisterebrother

【★】 e b o y − e b r o t h e r ≈ e g i r l − e s i s t e r e_{boy} - e_{brother} ≈ e_{girl} - e_{sister} eboyebrotheregirlesister

【 】 e b o y − e b r o t h e r ≈ e s i s t e r − e g i r l e_{boy} - e_{brother} ≈ e_{sister} - e_{girl} eboyebrotheresisteregirl

5.设 E E E为嵌入矩阵, e 1234 e_{1234} e1234 对应的是词“1234”的独热向量,为了获得1234的词嵌入,为什么不直接在Python中使用代码 E ∗ e 1234 E∗e_{1234} Ee1234 呢?

【★】 因为这个操作是在浪费计算资源。
【 】 因为正确的计算方式是 E T ∗ e 1234 E^T ∗ e_{1234} ETe1234
【 】 因为它没有办法处理未知的单词()。
【 】 以上全都不对,因为直接调用 E ∗ e 1234 E∗e_{1234} Ee1234是最好的方案。

6.在学习词嵌入时,我们创建了一个预测 P ( t a r g e t ∣ c o n t e x t ) P(target \mid context) P(targetcontext)的任务,如果这个预测做的不是很好那也是没有关系的,因为这个任务更重要的是学习了一组有用的嵌入词。

【★】 正确
【 】 错误

7.在word2vec算法中,你要预测 P ( t ∣ c ) P(t \mid c) P(tc),其中 t t t 是目标词(target word), c c c 是语境词(context word)。你应当在训练集中怎样选择 t t t c c c 呢?

【★】 c c c t t t 应当在附近词中。
【 】 c c c 是在 t t t 前面的一个词。
【 】 c c c t t t 之前句子中所有单词的序列。
【 】 c c c t t t 之前句子中几个单词的序列。

8.假设你有1000个单词词汇,并且正在学习500维的词嵌入,word2vec模型使用下面的softmax函数:
P ( t ∣ c ) = e θ t T e c ∑ t ′ = 1 10000 e θ t ′ T e c P(t \mid c)=\frac{e^{\theta_t^Te_c}}{\sum_{t′=1}^{10000} e^{\theta_{t′}^T e_c}} P(tc)=t=110000eθtTeceθtTec
以下说法中哪一个(些)是正确的?

【★】 θ t \theta_t θt e c e_c ec 都是500维的向量。
【 】 θ t \theta_t θt e c e_c ec 都是10000维的向量。
【★】 θ t \theta_t θt e c e_c ec 都是通过Adam或梯度下降等优化算法进行训练的。
【 】 训练之后, θ t \theta_t θt 应该非常接近 e c e_c ec,因为 t t t c c c 是一个词。

9.假设你有10000个单词词汇,并且正在学习500维的词嵌入,GloVe模型最小化了这个目标:
min ⁡ ∑ i = 1 10 , 000 ∑ j = 1 10 , 000 f ( X i j ) ( θ i T e j + b i + b ′ j − l o g X i j ) 2 \min \sum^{10,000}_{i=1}\sum^{10,000}_{j=1}f(X_{ij})(\theta^T_ie_j+b_i+b′_j−logX_{ij})^2 mini=110,000j=110,000f(Xij)(θiTej+bi+bjlogXij)2
以下说法中哪一个(些)是正确的?

【 】 θ i \theta_i θi e j e_j ej 应当初始化为0。
【★】 θ i \theta_i θi e j e_j ej 应当使用随机数进行初始化。
【★】 X i j X_{ij} Xij 是单词i在j中出现的次数。
【★】 加权函数 f ( . ) f(.) f(.) 必须满足 f ( 0 ) = 0 f(0)=0 f(0)=0

The weighting function helps prevent learning only from extremely common word pairs. It is not necessary that it satisfies this function.
加权函数有助于防止仅从非常常见的单词对中学习,它不必满足这个函数。

10.你已经在文本数据集 m 1 m_1 m1上训练了词嵌入,现在准备将它用于一个语言任务中,对于这个任务,你有一个单独标记的数据集 m 2 m_2 m2,请记住,使用词嵌入是一种迁移学习的形式,在这种情况下,你认为词嵌入会有帮助吗?

【★】 m 1 > > m 2 m_1\gt \gt m_2 m1>>m2

【 】 m 1 < < m 2 m_1 \lt \lt m_2 m1<<m2

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值