![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NLP学习之路
qq_33871546
这个作者很懒,什么都没留下…
展开
-
奇异值分解
类似于特征分解,我们可以重新将 A 写作 A = Vdiag(λ) 奇异值分解是类似的,只不过这回我们将矩阵 A 分解成三个矩阵的乘积: A = UD 假设 A 是一个 m×n 的矩阵,那么 U 是一个 m×m 的矩阵,D 是一个 m×n 的矩阵,V 是一个 n × n 矩阵,矩阵 U 和 V 都定义为正交 矩阵,而矩阵 D 定义为对角矩阵。注意,矩阵 D 不一定是方阵 对角矩阵 D 对角...原创 2019-06-14 22:12:18 · 96 阅读 · 0 评论 -
softmax交叉熵损失函数求导
softmax 函数 softmax(柔性最大值)函数,一般在神经网络中, softmax可以作为分类任务的输出层。其实可以认为softmax输出的是几个类别选择的概率,比如我有一个分类任务,要分为三个类,softmax函数可以根据它们相对的大小,输出三个类别选取的概率,并且概率和为1。 softmax函数的公式是这种形式: 则对于损失函数 计算成本的梯度 ...转载 2019-06-15 10:13:00 · 326 阅读 · 0 评论