- 博客(9)
- 收藏
- 关注
转载 Word Embeddings: Encoding Lexical Semantics(译文)
词向量:编码词汇级别的信息 url:http://pytorch.org/tutorials/beginner/nlp/word_embeddings_tutorial.html?highlight=lookup 词嵌入 词嵌入是稠密向量,每个都代表了一个单词表里面的一个单词。NLP中每个Feature都是单词,但是怎么在电脑中表示单词呢?? ascii知识告诉我们每个单词是啥,没告...
2017-11-30 18:24:00 207
转载 从尾到头打印链表
思路分析:从尾到头,凡是遇到这种逆序问题,可以先考虑用栈,因为栈是先进后出;也可以考虑使用题归,不过递归确实比较灵活,不好掌握。还有一个比较直观的思路就是先把链表反转,然后再从头到尾打印。 代码:使用栈 1 class Solution{ 2 public: 3 //写函数名呗 4 vector<int> printListFromTa...
2017-08-31 02:16:00 72
转载 逻辑回归小结
参考:http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 转载于:https://www.cnblogs.com/aaronsw/p/7418223.html
2017-08-23 15:02:00 111
转载 kaggle实战之 bag of words meet bag of poopcorn
由于编辑器总是崩溃,我只能直接把代码贴上了。 import numpy #first step import pandas as pd import numpy as np # Read data from files #这三行的目的就是读入文件,pd.read_csv()这个API里面参数还是比较多的,可以查阅官方文档 #人工标记过的训练数据 trai...
2017-08-14 10:52:00 137
转载 2017.07.17——机器学习——朴素贝叶斯
今天应该是把朴素贝叶斯算法层面上的东西全部理解了,朴素贝叶斯总的来说是比较简单的机器学习模型,是生成模型,而不是判别模型,是在假定y的条件下看x的生成情况。朴素贝叶斯两个朴素的但不一定正确的假设,条件概率,到贝叶斯公式,再推广到朴素贝叶斯的公式,利用朴素的假设简化模型,类别的参数估计总是用MLE或者MAP估计(平滑),对于给定y之后的x,如果假设x服从高斯分布,利用最大似然估计...
2017-07-17 22:43:00 85
转载 贝叶斯定理
看了两天的贝叶斯理论,终于算是理解一些,现在写下来自己的收获。 1.贝叶斯公式 $P(A|B)=P(A) \frac {P(B|A)}{P(B}$,我认为,这样的形式才能帮助我们更好的取理解贝叶斯公式,而不是将贝叶斯公式看作是由条件概率推导而来的公式。 公式的理解:(1)$P(A)$就是所谓的先验概率,什么是先验概率,就是你最早知道的概率,或者是什么都不知道的时候的概率,此时一般都...
2017-06-25 22:15:00 182
转载 似然函数
1.什么是似然函数 一句话概括:似然函数是参数的函数。 公式:解释:参数$\theta$在给定输出为x的情况下的似然函数等于,在给定参数为$\theta$的情况下,取x的概率。注意:此处的竖杠并不表示条件件概率,仅仅是一种取该值的含义。 我的理解:在统计学中,随机变量会服从某个分布,此分布带有参数。参数不同,随机变量对应同一个值的概率也不同。一般来说我们给定参数,然后来计算概率。但...
2017-06-25 21:01:00 1312
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人