CS244n NLP with Deep Learning | Winter 2019

Lecture 1

word2vec

在这里插入图片描述

每一个单词可以变成一个vector, 相似的word vector也相似
word = [ 0.23 0.52 − 0.41 − 0.31 0.27 0.48 ] \begin{bmatrix} 0.23 \\ 0.52 \\ -0.41 \\ -0.31 \\ 0.27 \\ 0.48 \end{bmatrix} 0.230.520.410.310.270.48
J ( θ ) = 1 T ∑ t = 1 T ∑ − m ≤ j ≤ m j ≠ 0 log ⁡ p ( w t + j ∣ w t ; θ ) J(\theta) = \frac{1}{T}\sum^T_{t=1} \sum_{\begin{matrix}-m \le j \le m \\ j \neq 0 \end{matrix}} \log p(w_{t+j} | w_{t; \theta}) J(θ)=T1t=1Tmjmj=0logp(wt+jwt;θ)
这里m是单词j的sliding window的左右长度
截图
θ = [ v a p p l e v b a n a n a v z e b r a . . . v a p p l e v b a n a n a v z e b r a ] = R 2 d v \theta = \begin{bmatrix} v_{apple} \\ v_{banana} \\ v_{zebra} \\ ... \\ v_{apple} \\ v_{banana} \\ v_{zebra} \end{bmatrix} = \mathbb{R}^{2dv} θ=vapplevbananavzebra...vapplevbananavzebra=R2dv
重复因为每个词有center和context两种representation。
derivative: ∂ log ⁡ ( p ) ( e x p ( u o T V ˙ c ) ∑ e x p ( u o T V ˙ c ) ) ∂ v c = u 0 − \frac{\partial \log(p)(\frac{exp(u_o^T \dot V_c) }{ \sum exp(u_o^T \dot V_c)})} {\partial v_c} = u_0 - vclog(p)(exp(uoTV˙c)exp(uoTV˙c))=u0
∂ ∂ v c l o g ∑ w = 1 V exp ⁡ ( u w T v ˙ c ) = 1 ∑ w = 1 v exp ⁡ ( u w T v c ) ∗ ∑ x = 1 V exp ⁡ ( u x T v c ) ∂ ∂ v c u x T v c = u 0 − ∑ x = 1 V exp ⁡ ( u x T v c ) u x ∑ w = 1 v exp ⁡ ( u w T v c ) = u 0 − ∑ x = 1 V p ( x ∣ c ) u x \frac{\partial }{\partial v_c}log\sum_{w=1}^V \exp(u_w^T \dot v_c) = \frac{1} {\sum_{w=1}^v \exp(u^T_w v_c)} * \sum_{x=1}^V\exp(u_x^Tv_c) \frac{\partial}{\partial v_c}u_x^Tv_c = \\ u_0 - \frac{ \sum_{x=1}^V \exp(u_x^Tv_c) u_x} {\sum_{w=1}^v \exp(u^T_w v_c)} = u_0 - \sum_{x=1}^Vp(x|c) u_x vclogw=1Vexp(uwTv˙c)=w=1vexp(uwTvc)1x=1Vexp(uxTvc)vcuxTvc=u0w=1vexp(uwTvc)x=1Vexp(uxTvc)ux=u0x=1Vp(xc)ux
https://medium.com/@zafaralibagh6/a-simple-word2vec-tutorial-61e64e38a6a1
疑问:是不是WI指的是 u w u_w uw, WO指的是 v w v_w vw ?

Lecture 2

Gradient descent
θ n e w = θ o l d − α ∇ θ J ( θ ) \theta^{new} = \theta^{old}- \alpha \nabla_\theta J(\theta) θnew=θoldαθJ(θ), α \alpha α is the learnnig rate
Stochastic Gradient Descnet and negative sampling
P ( O ∣ C ) = e x p ( u o T V ˙ c ) ∑ w ∈ V e x p ( u w T V ˙ c ) P(O|C) =\frac{exp(u_o^T \dot V_c) }{ \sum_{w \in V} exp(u_w^T \dot V_c)} P(OC)=wVexp(uwTV˙c)exp(uoTV˙c

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 深度学习是一项非常热门的技术,在人工智能领域得到广泛应用。PyTorch是一种使用Python编程语言的开源深度学习框架,它非常适合研究和开发深度学习模型。为了帮助初学者更好地学习PyTorch深度学习技术,CSDN(全球最大中文IT社区)开设了“DeepLearning with PyTorch”系列课程。 这个系列课程以实践为主要教学方式,让学生在实际操作中掌握PyTorch深度学习的技能。在学习过程中,学生可以学到基础的模型结构设计,各种优化算法,如学习率调整、梯度下降等,并且可以在实战操作中学到如何使用PyTorch完成各种实际应用,例如图像分类和识别,自然语言处理等等。 这门课程的受众群体不仅仅是那些想要从事人工智能开发的工程师,它对于对深度学习感兴趣的学生和科研人员也是非常有用的。这是因为在这个课程中,教师基于实际使用场景和数据集介绍了PyTorch深度学习技术,从实践中总结出的方法和经验不仅可以快速提升工程开发效率,也可以加深对深度学习理论的理解。 总之,“DeepLearning with PyTorch”系列课程非常实用和有趣,可以为初学者提供全面而深入的深度学习知识,帮助他们掌握用PyTorch来开发深度学习模型的基础技能。 ### 回答2: Deep Learning是一种用于训练多层神经网络机器学习方法,已被广泛应用于视觉、语音、自然语言处理等领域。而PyTorch是一种开源的深度学习框架,具有快速、灵活、易用等优点,因此受到了越来越多的关注和使用。 CSDN是一个致力于IT技术在线学习和分享的平台,在其中学习deeplearning with pytorch将能够获取丰富的知识和实践经验。首先,我们需要了解PyTorch的基本概念和操作方法,如如何构建网络模型、定义损失函数和优化器、进行前向传播和反向传播等。然后,我们可以学习如何使用PyTorch进行数据预处理,如数据清洗、标准化、归一化等。此外,还可了解如何使用PyTorch进行分布式训练、混合精度训练等高级技术,以及如何在GPU上进行训练和推理等实践技巧。 总之,在CSDN上学习deeplearning with pytorch,能够让我们更好地掌握PyTorch的使用技巧,帮助我们更快、更好地完成深度学习的应用开发和研究工作。同时也可以通过活跃在CSDN平台上与其他开发者的交流来共同进步。 ### 回答3: PyTorch是一种针对深度学习任务的开源机器学习库,它支持快速的原型设计和大量的实验,是当前科学界和工业界中最受欢迎的深度学习框架之一。CSDN推出的Deeplearning with Pytorch系列课程就是致力于教授学生如何使用PyTorch进行深度学习,以及在此基础上更深层次的研究探索。 此系列课程包含了从入门到进阶多个方面的内容,在基础课程中,学员将学会如何使用PyTorch进行深度学习的各个方面,包括但不限于神经网络、优化器、损失函数等,使其基本掌握PyTorch的使用方法。而在进阶课程中,以一些大型深度学习任务为基础,详细介绍了超参数优化、神经网络模型架构选择、分布式训练、自己写网络模型等更高级的知识,通过深度剖析一些开源库的源码,为学员提供了很多实现深度学习任务的技巧和方法。 课程的开设不仅帮助了很多想更深入了解深度学习的爱好者,也有助于那些打算将深度学习应用在自己的科研工作中的研究者们更加快捷、有效地完成自己的研究任务。相信随着人工智能的不断发展,PyTorch这样的框架将会发挥越来越重要的作用,而帮助大家掌握这些工具的Deeplearning with Pytorch系列课程也必将得到更多的关注和支持。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值