CS224D notes
文章平均质量分 69
NeighborhoodGuo
这个作者很懒,什么都没留下…
展开
-
CS 224D Lecture 3札记
这几天把第三课推掉了,又到了写博客的时间,好开心,有木有这一课主要讲了两大部分:第一大部分讲得是如何建立Object function并且如何找到optimum point;第二大部分讲的是如何评测生成的VSM的优劣。主要讲的是这两大部分,其中穿插了一些小的知识点,会在下面详细写出。老样子,先写出Video/Slide的pipeline: Refresher: word2vec model原创 2015-07-12 12:03:09 · 2355 阅读 · 2 评论 -
CS224d lecture 7札记
又到了,博客时间,咳咳咳这次lecture7的内容不太多。不过讲解的东西却是很高大上也很重要。这次的课程主要就是在开头介绍了一下传统的语言模型,然后在后半段介绍了一个高大上的用RNN进行自然语言处理的思路。推荐阅读里的论文也是对lecture7课上内容的补充说明,也十分棒。废话不多说开写喽!1.Traditional Language Models首原创 2015-07-28 20:56:15 · 2283 阅读 · 2 评论 -
CS224d Problem set 1作业
CS224d Problem set 1作业原创 2015-07-26 21:24:34 · 6309 阅读 · 15 评论 -
CS224d lecture 9札记
最近几课的内容不是很难,还有我的理解能力有所提高(自恋一下),所以这几课完成的都挺快。不知不觉lec9也完成了。这一讲讲了另一个RNN,其中R是Recursive不是之前的Recurrent。课上老师使用Recursive NN来做NLP和CV的任务,我个人认为做CV还是不错的,这个NLP怎么感觉有点不靠谱。不管怎么说这个model还是解决了很多实际问题的,而且性能也不错,现在就来记录记录喽。原创 2015-08-02 00:06:07 · 2667 阅读 · 0 评论 -
CS224d lecture 8札记
又开始新一课的札记啦!最近Project Proposal也快到了,时间还是比较紧的。不过课程已经过半了还是挺开心的。stanford开放这么有技术含量的课程,还是很钦佩stanford的开放精神。这一课是对Recurrent NN for MT做了一个简要的介绍。个人认为这种方法比较靠谱耶,想想我们人类对于母语的学习,对于母语的理解,从来都不是先分析语法,再分析语义的,而是直接就从前到后原创 2015-07-31 19:34:37 · 1558 阅读 · 1 评论 -
CS224d lecture 16札记
欢迎转载,转载注明出处:终于把最后一讲也看完了,stanford的NLP课程也接近了尾声,真的是非常的开心,这门课真的让我收获了很多。这一课讲得就是DL在NLP方面的应用,其实大部分内容在之前的课上和之前的推荐阅读里都有提及,这一课也算是一门复习课吧。同样的先overview一下:1.Model overview 2.Character RNNs on tex原创 2015-08-13 19:31:34 · 1687 阅读 · 0 评论 -
CS224d 干货(视频,笔记,论文)
这个博客是用来分享cs224d的各种学习资料的哦,我下载整理学习这些可用了好久呢,希望能帮助到想要学习这方面知识的朋友,视频都是从Youtube上弄下来的,仅供学习交流使用哦,大家别乱转发。原创 2015-07-13 21:44:17 · 22472 阅读 · 12 评论 -
CS224d lecture 14札记
欢迎转载,转载注明出处:这一课也是请得嘉宾讲得课,据说是standford的一位博士。讲得主题是Neural Networks in Speech Recognition不过Speech Recognition可谓是博大精深啊,这一堂课就像讲师在课前的Overview里说的一样,只是做一个perspective让大家对这个方面有一个简要的了解,具体如何操作,原创 2015-08-12 20:00:51 · 1890 阅读 · 0 评论 -
CS224d lecture 15札记
这一讲还是嘉宾的讲课,讲得是关于parallel计算方面的。俗话说的好:“三个臭皮匠,顶个诸葛亮嘛”。哈哈因为一台计算机,或者一个处理器的处理能力是有限的,进行并行计算能够大大提高运算速度,节省调试的时间。而我们的NN是如此的复杂,有时候规模也特别大,所以使用并行计算是很有必要的。这一讲呢,主要分为五个部分:1.Efficient formulations 2.CPUs and原创 2015-08-12 19:10:35 · 1202 阅读 · 0 评论 -
CS 224D lecture 5 笔记
哈哈哈,终于又到了写博客的时间,这次的内容,其实说实话不太多,就是Recommendreading太多看的人头大,而且Recommendreading大多是没有接触到的模型,更让人摸不着头脑,权当是预习吧,哈哈!原创 2015-07-18 00:04:12 · 2389 阅读 · 0 评论 -
CS224d lecture 13札记
欢迎转载,转载注明出处:不知不觉到了第三部分了,整个课程也快结束了,虽然不是第一次整个推完公开课,但是还是有些兴奋呢!废话不多说,开始总结啦!这节课就介绍了一个模型,就是在Computer Vision里十分popular的CNN(Convolutional Neural Networks)。不过这里介绍它在NLP的应用,可见model其实是可以有不原创 2015-08-10 00:58:32 · 2695 阅读 · 0 评论 -
CS224d Problem set 2作业
欢迎转载,转载注明出处:1.以下是problem set 2的详细推导过程: 2.附上我自己敲的代码的解决过程,有错误请不吝指正。https://github.com/NeighborhoodWang/CS224D-problem-set2.git 3.注意的要点:Python原创 2015-08-09 19:22:39 · 2604 阅读 · 1 评论 -
CS224D Lecture 1 札记
最近开始看Stanford的CS224D课程,这是最新的Stanford的关于Deep Learning的实用课程有兴趣的朋友可以点这里本文只是本人的一个学习札记,难免有错误和疏漏之处,如果有网友发现我的错误或疏漏,还请不吝指正,在此谢过。原创 2015-07-07 21:48:10 · 5753 阅读 · 0 评论 -
CS224D Lecture 4 札记
咳咳,又到了博文时间,这一课的内容相对较少,所以就相对较快的来总结来博文啦,哈哈哈废话不多说了,开始写吧,这一课的内容主要有三个部分,第一部分是window classification,第二部分是关于softmax的求梯度的tips,第三部分是Neuron Network 的一个简单介绍。在这堂课开始的时候老师讲了一句话很经典,特此抄录下来:The large context you原创 2015-07-13 21:37:36 · 2498 阅读 · 2 评论 -
CS224d lecture 6札记
哈哈哈,终于又到了每课的写笔记时间。这次课程的内容比较少,可能是为了给Problem set 1空余时间吧。废话不多说。写喽这次的video讲的东西主要就是把推荐的论文稍微详细的讲解了一部分,然后外加给RNN模型开了个头。1.Multi-task learning / weight sharing这个第一部分其实在NLP(almost) from scratch里也原创 2015-07-26 21:08:58 · 1847 阅读 · 0 评论 -
CS224D Lecture2 札记
终于把Lecture 2看得差不多了,现在开始写札记哦!原创 2015-07-09 16:40:45 · 3174 阅读 · 4 评论 -
CS224d lecture 10札记
Go Go Go第十讲也顺利结束啦,不愧是Advanced Recursive NN讲得内容确实有些Advanced,不过如果认真听课再认真看课后的paper的话,我相信还是可以完全理解的。开始总结喽。。。首先,老师在课上开篇讲了RNN的一个综述吧,也是使用RNN进行NLP的三个大的要素:1.Train objective主要有两种,一种是cross-entropy或者ma原创 2015-08-04 21:11:04 · 2286 阅读 · 0 评论