CS224N_2019_Assignment3: Dependency Parsing (Solution)

前言

A3作業讓你學會建立neural dependency parser的同時也能熟悉Pytorch的用法。
Written part是關於Adam和Dropout的解答與思考,這部分教授在課上解釋的比較少,但屬於neural network的重點之一,建議閱讀相關文獻加深這部分的理解。
Coding part是關於運用wrriten part的optimizer trick建立一個完整的simple neural net,並進行模型訓練。

題目詳情

– Written Part –

#1. Machine Learning & Neural Networks (8 points)

Answer:

( a )
i. Using m updates the gradient by multiplying it by α(1-β) times, reducing the gradient even further than SGD.

ii. v will get larger updates since its calculation contains the power of the gradients. If v is larger than 1, the updated v will be larger; if v is smaller than 1, the updated v will become smaller. This can help with learning by avoiding the learning rate being too large(exploding) or too small(vanishing) through the calculation of the division (√v).

( b )
i. γ = 1 1 − p d r o p γ = \frac{1}{1-p_{drop}} γ=1pdrop1.
Since
h d r o p = γ d ⊙ h h_{drop} = γd⊙h hdrop=γdh
h d r o p = γ ( 1 − p d r o p ) ⊙ h = h h_{drop}=γ(1-p_{drop})⊙h=h hdrop=γ(1pdrop)h=h
γ ( 1 − p d r o p ) = 1 γ(1-p_{drop})=1 γ(1

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值