- 博客(6)
- 资源 (1)
- 收藏
- 关注
原创 个人理解--梯度下降
最近被问机器学习是怎么训练的,那么就顺便再深入理解梯度下降算法。一、导数 首先我们需要复习一下导数的知识。导数是什么?一个导数是描述一个函数上的一个点在自变量增大时,因变量的变化率。在这里我讨论导数的对象为二维空间上的函数。我们用极限来表达导数,当左右侧导数相等时,这个点才存在导数。 ...
2019-03-28 16:49:25 410
原创 个人理解--贝叶斯公式
一、条件概率定义 假设A和B是样本空间中的两个集合,我们可以很清楚的明白P(A)和P(B)分别代表集合A与集合B的概率,以及是两个集合交集的概率,即两个事件同时发生的概率。但是注意,凡是形式为P(x)的都是概率,背后本质是一个比值,那么就会有分子与分母...
2019-03-17 17:46:19 1986
转载 机器学习笔记(五)--SVD奇异值分解
SVD奇异值分解可运用在降维算法PCA中进行特征分解,在机器学习等领域有广泛应用,所以很有必要将它搞清楚。优秀文章:https://www.cnblogs.com/pinard/p/6251584.html一、特征值与特征向量 ...
2019-03-17 00:03:11 353
原创 数学建模学习笔记(三)--回归与分类
回归与分类这两个监督学习方法的区别主要在于:1.输出的类型:连续与离散。2.loss函数:均方差与交叉熵(输出是否为一个可度量的空间,不同输出之间是否存在可度量的距离)。3.网络结构:不需要softmax与需要softmax。这两个方法本质上相同,分类可以用回归来做。...
2019-03-16 22:40:34 465
原创 数学建模学习笔记(二)--TOPSIS
一、TOPSIS优劣解距离法优秀文章:https://zhuanlan.zhihu.com/p/37738503这个方法是使用在多方案评估问题中,给出每个方案的得分,选出最优的方案。1.指标同向化意思就是:有的变量越大越好,有的变量越小越好,有的变量在一个区间就可以,那么就需要处理这些变量,变换成同个方向。...
2019-03-16 22:36:50 4930
原创 自然语言处理笔记(一)--句子编码
NLP最初的步骤就是将文本中的句子表示成计算机能够处理的数字矩阵,而句子是由多个单词组成的,所以表达句子的任务就变成了如何表达单词。表达单词一般有两种大方法:词袋模型,词向量模型。一、词袋模型(BOW)将所有出现过的单词装进一个袋子里,忽略词法与语序,每个单词都是独立的。那么单词的维度就是词袋的大小(用单词的出现次数表达)。这样会出现稀疏性的问题(one-hot)。二、词向量模型(Wo...
2019-03-07 16:42:02 2333
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人