- 博客(11)
- 收藏
- 关注
原创 自然语言处理 - 要代替 RNN、LSTM 的 Transformer
自然语言处理 - 要代替 RNN、LSTM 的 TransformerTransformer 结构计算过程Seq2Seq 模型,通常来讲里面是由 RNN、GRU、LSTM 的 cell 来组建的,但最近 Google 推出了一个新的架构 Transformer. 这个模型解决了 Seq2Seq 模型依赖之前结果无法并行的问题,而且最终的效果也是非常棒。原文:图解 Transformer已经这...
2019-05-28 16:22:32 3479
原创 有偏估计 and 无偏估计 - 方差分母 n-1(详细证明)
有偏估计 and 无偏估计方差分母 n-1 - 详细证明均值 - 无偏估计方差 - 有偏估计方差 - 转换成无偏估计
2019-05-19 08:49:35 5029 4
原创 优化算法 - Adagrad、RMSprop、Adam - 梯度下降 - 自适应学习率
优化算法梯度下降自适应学习率AdagradRMSpropAdam
2019-05-18 16:45:10 3804
原创 优化算法 - Momentum 动量 - 梯度下降 - 缓解山谷与鞍点的影响
优化算法Momentum 动量梯度下降缓解山谷与鞍点的影响MomentumNesterov
2019-05-17 15:52:02 1409
原创 优化算法 - BGD、MBGD、SGD - 梯度下降
BGD (Batch Gradient Descent) 批量梯度下降,SGD (Stochastic Gradient Descent) 随机梯度下降,MBGD (Mini-Batch Gradient Descent) 小批量梯度下降。
2019-05-17 11:20:12 608
原创 自然语言处理 - 文本数值化 - Word Embedding - 层次Softmax 与 负采样
哈夫曼树轮盘采样Word Embedding 简化方法层次 Softmax (Hierarchical Softmax )负采样 (Negative Sampling)
2019-05-16 15:42:45 1092
原创 自然语言处理 - 文本数值化 - Word Embedding - CBOW 与 Skip-gram
Word EmbeddingCBOW (Continue Bag-of-Words)Skip-Gram
2019-05-16 11:33:39 713
原创 自然语言处理 - 文本表示模型 以及 文本数值化(基于频次)
Bag of WordsN-gram文本数值化Count VectorTF-IDF Vector共现矩阵
2019-05-15 11:30:50 1134
原创 特征工程 - 数据分析 - 峰度 and 偏度
特征工程 - 数据分析 - 峰度 and 偏度偏度峰度偏度偏度(Skewness)用来描述数据分布的对称性。当偏度 <0 时,称为负偏,数据出现左侧长尾;当偏度>0时,称为正偏,数据出现右侧长尾。正态分布是对称的,其偏度为 0。当数据偏度为 0 时,表示数据相对均匀的分布在平均值两侧,但不一定是正态分布。当偏度绝对值过大时,长尾的一侧出现极端值的可能性较高。下图...
2019-05-13 16:03:10 4188
原创 PyTorch 踩坑实录 (1) - 损失函数
今天开始更新学习 FaceBook 的深度学习框架 PyTorch !PyTorch 底层优化的非常好,而且与 Numpy 无缝对接,用起来很清爽,不像 TensorFlow 那么“反 Python”~先看了 Deep Learning with PyTorch: A 60 Minute Blitz ,题目说是“一小时搞定”,但就我这个上了岁数的人来讲,花了一晚上才把一整套流程跑了一遍。。。...
2019-05-12 22:14:47 552
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人