![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
王魚(Jones)
某不知名公司的某不知名算法工程师
展开
-
sklearn计算准确率、精确率、召回率、F1 score
目录混淆矩阵准确率精确率召回率P-R曲线F1 score参考资料分类是机器学习中比较常见的任务,对于分类任务常见的评价指标有准确率(Accuracy)、精确率(...转载 2020-07-22 19:05:24 · 7320 阅读 · 0 评论 -
理解LSTM(通俗易懂版)
循环神经网络(Recurrent Neural Networks)人对一个问题的思考不会完全从头开始。比如你在阅读本片文章的时,你会根据之前理解过的信息来理解下面看到的文字。在理解当前文字的时候,你并不会忘记之前看过的文字,从头思考当前文字的含义。传统的神经网络并不能做到这一点,这是在对这种序列信息(如语音)进行预测时的一个缺点。比如你想对电影中的每个片段去做事件分类,传统的神经网络是很难通过利用前面的事件信息来对后面事件进行分类。而循环神经网络(下面简称RNNs)可以通过不停的将信息循环操作,转载 2020-05-27 19:34:25 · 1454 阅读 · 0 评论 -
详解梯度消失、梯度爆炸问题
1、梯度消失(vanishing gradient problem)、梯度爆炸(exploding gradient problem)原因神经网络最终的目的是希望损失函数loss取得极小值。所以最终的问题就变成了一个寻找函数最小值的问题,在数学上,很自然的就会想到使用梯度下降(求导)来解决。梯度消失、梯度爆炸其根本原因在于反向传播训练法则(BP算法):是指在使用梯度下降法对误差进行反向传播时,由于求偏导累乘而出现趋于0(梯度消失)或者趋于无穷大(梯度爆炸)的问题 。所以梯度消失和爆炸出现的原因经原创 2020-05-27 19:00:58 · 3328 阅读 · 0 评论