ML
Alex Ruan
这个作者很懒,什么都没留下…
展开
-
DSL(Domain Specific Language)
转载自https://www.cnblogs.com/codershell/archive/2013/07/18/3199174.html领域特定语言(Domain Specific Language, DSL)是一种为解决特定领域问题而对某个特定领域操作和概念进行抽象的语言。领域特定语言只是针对某个特定的领域,这点与通用编程语言(General purpose Language)不同,如Java既可以适用于网站开发,也可以适用于手机开发。一旦领域特定语言离开了相关领域,它就会变得不适用。但针对某个特定的转载 2022-01-16 21:59:19 · 1383 阅读 · 0 评论 -
n-grams
含义假设有一个字符串s,那么该字符串的N-Grams就表示按长度 N 切分原词得到的词段,也就是s中所有长度为 N 的子字符串。设想如果有两个字符串,然后分别求它们的N-Grams,那么就可以从它们的共有子串的数量这个角度去定义两个字符串间的N-Gram距离。...转载 2021-11-22 15:57:21 · 360 阅读 · 0 评论 -
fairseq——Beam search通俗理解
https://towardsdatascience.com/an-intuitive-explanation-of-beam-search-9b1d744e7a0f转载 2021-08-09 18:59:08 · 433 阅读 · 0 评论 -
--label-smoothing
https://towardsdatascience.com/what-is-label-smoothing-108debd7ef06转载 2021-08-09 17:50:41 · 99 阅读 · 0 评论 -
梯度爆炸解决办法——梯度截断--clip-norm 0.0
https://blog.csdn.net/csnc007/article/details/97804398https://blog.csdn.net/a1b2c3d4123456/article/details/90718413https://neptune.ai/blog/understanding-gradient-clipping-and-how-it-can-fix-exploding-gradients-problem转载 2021-08-09 16:11:26 · 502 阅读 · 0 评论 -
Adam优化算法
Adam(自适应矩估计 Adaptive moment estimation)转载https://blog.csdn.net/m0_37944102/article/details/104340723细节讲解(英文好的同学可以看看)https://towardsdatascience.com/adam-latest-trends-in-deep-learning-optimization-6be9a291375c...转载 2021-08-09 14:11:57 · 133 阅读 · 0 评论 -
李宏毅老师2020-hw2预测工作收入
(个人笔记,不详述过程)用SVD求协方差矩阵的逆,用以下代码实现:inv = np.matmul(v.T * 1 / s, u.T)其中的原理是https://blog.csdn.net/lanchunhui/article/details/74784271原创 2021-06-28 17:05:33 · 296 阅读 · 0 评论 -
交叉熵损失函数原理
讲交叉熵的来源:交叉熵损失函数的数学原理求偏导的过程:很容易原理:KL散度 = 交叉熵 - 信息熵各种损失函数总结:https://zhuanlan.zhihu.com/p/58883095转载 2021-06-19 16:57:12 · 110 阅读 · 0 评论 -
word2vec之skip-gram/softmax/交叉熵
skip-gram:https://blog.csdn.net/weixin_41843918/article/details/90312339https://zhuanlan.zhihu.com/p/27234078softmax:https://www.zhihu.com/question/23765351/answer/1246058063转载 2021-05-30 19:24:09 · 159 阅读 · 0 评论 -
准确率和召回率
http://bookshadow.com/weblog/2014/06/10/precision-recall-f-measure/转载 2021-03-18 15:56:18 · 103 阅读 · 0 评论