深度学习
文章平均质量分 78
Kevin照墨
这个作者很懒,什么都没留下…
展开
-
优化算法总结
机器学习和神经网络等个人的简单理解:无论是机器学习还是神经网络、深度学习等,他们的目的都是一致的,想要通过给定的结构模型去拟合未知的真实模型。之所以会有这么多不同的神经网路、机器学习算法,是因为每一种算法和结构都包含了不同领域的先验知识,更能帮助模型快速大致准确地收敛到未知的真实模型。所以想要一个普世的大一统结构模型是不现实的。优化算法的目的就是为了快速降低损失函数(或者说目标函数)的训练误差,所以无论是机器学习算法还是神经网络都需要优化算法做支撑...原创 2020-09-11 16:06:45 · 507 阅读 · 0 评论 -
独热码(one-hot-enconding)的理解以及编码与解码
独热码(one-hot-enconding)的理解以及编码与解码1.为什么要引入独热码的概念在机器学习的领域中,常常会遇到分类,聚类等问题,如果所收集到的数据拥有大量离散型的特征和类别,则我们就需要对其进行编码。就拿mnist手写数字识别来说,其数据的标签就有10个类别:0~9,假设采取神经网络模型进行训练和识别。如果不采取独热码的形式,仍然以0~9作为其标签,那么就相当于最终的输...原创 2018-09-17 16:49:42 · 6080 阅读 · 1 评论 -
初学深度学习1——深度神经网络简介
初学深度学习1——深度神经网络简介深度神经网络是由多个线性或非线性神经网络堆叠而成的 而只含一层隐藏层的算是一个简单的神经网络,其中每一个小圆是一个感知机,神经网络中隐含层包含多个感知机。 其中w为权值矩阵,b为偏置值,然后通过一个求和函数和一个激活函数得出最终的输出值Y0,并与标准值Y1进行对比,算出残差。然后反向传播,不断迭代更新权值矩阵,得到训练后的神经网络。...原创 2018-09-14 10:46:14 · 608 阅读 · 0 评论 -
常见激活函数的用法
常见激活函数的用法1.为什么要使用激活函数如果不用激励函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。如果使用的话,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。2.常用的激活函数2.1 Sigmoid函数sigmoid函数也叫 Logistic 函数,用于隐层神经元输出,取值...原创 2018-09-19 17:31:40 · 1711 阅读 · 0 评论 -
混淆矩阵与PR曲线、ROC曲线的理解与使用
混淆矩阵与PR曲线、ROC曲线的理解与使用1.混淆矩阵对于分类器而言,一个比较好的评估指标是混淆矩阵。下面通过一个表格具体展示。Neg(非A)Pos(A)Neg(非A样本)90(TN)10(FP)Pos(A样本)30(FN)70(TP)其中Neg表示非A类,pos表示A类。从表格中可以得知,此分类器更能有效地识别非A样本,而对于A样本的识别能力不足。...原创 2018-09-26 16:18:08 · 2794 阅读 · 2 评论 -
多分类任务的混淆矩阵处理
多分类任务的混淆矩阵处理在多分类任务中,不适合使用PR曲线和ROC曲线来进行指标评价,但我们仍可以通过混淆矩阵来进行处理。可以通过matplotlib的matshow()函数,直观地展示分类结果的好坏。先使用cross_val_predict得出各个分类值的分数 y_train_pred = cross_val_predict(sgd_clf, X_train_scaled, y_train...原创 2018-09-26 20:43:49 · 10530 阅读 · 0 评论 -
回归算法——Logistics回归、Log对数损失(交叉熵损失)
回归算法——Logistics函数、Log对数损失、交叉熵损失1.定义Logistic算法是一个二分类算法,它通过Sigmoid函数,把函数值映射到0~1之间。其概率估计函数公式如下:p^i=hθ(Xi)=σ(θTXi) \hat p_i=h_\theta(X_i)=\sigma(\theta^TX_i) p^i=hθ(Xi)=σ(θTXi)其中p^i\hat p_ip^i...原创 2018-10-17 20:28:08 · 6780 阅读 · 1 评论