自然语言处理 (NLP)
GoWeiXH
天道酬效勤
展开
-
自然语言处理 - 要代替 RNN、LSTM 的 Transformer
自然语言处理 - 要代替 RNN、LSTM 的 TransformerTransformer 结构计算过程Seq2Seq 模型,通常来讲里面是由 RNN、GRU、LSTM 的 cell 来组建的,但最近 Google 推出了一个新的架构 Transformer. 这个模型解决了 Seq2Seq 模型依赖之前结果无法并行的问题,而且最终的效果也是非常棒。原文:图解 Transformer已经这...原创 2019-05-28 16:22:32 · 3479 阅读 · 0 评论 -
自然语言处理 - 文本数值化 - Word Embedding - 层次Softmax 与 负采样
哈夫曼树轮盘采样Word Embedding 简化方法层次 Softmax (Hierarchical Softmax )负采样 (Negative Sampling)原创 2019-05-16 15:42:45 · 1092 阅读 · 0 评论 -
自然语言处理 - 文本数值化 - Word Embedding - CBOW 与 Skip-gram
Word EmbeddingCBOW (Continue Bag-of-Words)Skip-Gram原创 2019-05-16 11:33:39 · 712 阅读 · 0 评论 -
自然语言处理 - 总述
概念研究内容应用领域研究层次形态学语法学语义学语用学面临的困难原创 2019-05-15 11:30:03 · 525 阅读 · 0 评论 -
自然语言处理 - 文本表示模型 以及 文本数值化(基于频次)
Bag of WordsN-gram文本数值化Count VectorTF-IDF Vector共现矩阵原创 2019-05-15 11:30:50 · 1132 阅读 · 0 评论 -
有偏估计 and 无偏估计 - 方差分母 n-1(详细证明)
有偏估计 and 无偏估计方差分母 n-1 - 详细证明均值 - 无偏估计方差 - 有偏估计方差 - 转换成无偏估计原创 2019-05-19 08:49:35 · 5019 阅读 · 4 评论 -
矩阵分解 - 奇异值分解 SVD
矩阵分解 - 奇异值分解 SVD奇异值分解几何解释紧奇异值分解(无损压缩)计算方法截断奇异值分解(有损压缩)计算方法(矩阵的外积展开式)实际意义奇异值分解奇异值分解,Singular value decomposition(SVD)在推荐、图像等多个领域中,因为数据矩阵的庞大,所以经常需要对矩阵进行压缩;亦或有噪声,要进行去噪,奇异值分解就是解决方法中的一个。它将矩阵分解为三个矩阵相乘的...原创 2019-07-19 21:34:40 · 1169 阅读 · 0 评论