机器学习
SherryGo
这个作者很懒,什么都没留下…
展开
-
神经网络中的超级参数
1. 学习率 η,2. 正则化参数 λ,3. 神经网络的层数 L,4. 每一个隐层中神经元的个数 j,5. 学习的回合数Epoch,6. 小批量数据 minibatch 的大小,7. 输出神经元的编码方式,8. 代价函数的选择,9. 权重初始化的方法,10. 神经元激活函数的种类,11.参加训练模型数据的规模 2.正则化参数原创 2017-12-11 14:16:19 · 1418 阅读 · 1 评论 -
神经网络超参之学习率η
学习率初始化很重要,学习率的变化策略也很重要。范围(0.1-0.00001)原创 2017-12-11 14:20:32 · 974 阅读 · 0 评论 -
神经网络超参之权重初始化的方法
权重初始化1、Zeros initialization parameters['W' + str(l)] = np.zeros([layers_dims[l], layers_dims[l-1]])parameters['b' + str(l)] = np.zeros([layers_dims[l], 1])2、Random initializationparameters原创 2017-12-11 14:29:44 · 408 阅读 · 0 评论 -
解决深度学习过拟合问题
深度学习模型太灵活太强大,以至于很容易产生过拟合解决方法1、正则化2、dropout原创 2017-12-11 14:35:02 · 1446 阅读 · 0 评论 -
深度学习优化方法
优化方法1、梯度下降(Gradient Descent)A variant of this is Stochastic Gradient Descent (SGD), which is equivalent to mini-batch gradient descent where each mini-batch has just 1 example. The update rule tha原创 2017-12-11 15:16:08 · 334 阅读 · 0 评论 -
自己实现简单分类器
# coding: utf-8from sklearn import datasetsfrom sklearn.cross_validation import train_test_splitfrom sklearn.metrics import accuracy_scoreimport numpy as npfrom scipy.spatial import distance...原创 2018-07-05 15:43:14 · 898 阅读 · 0 评论 -
准确率,召回率和F1
真假是表示样本实际类别,而正负表示预测类别准确率是指真正例占所有正例的比例,即在所有正例中真例有多少。precison = TP/(TP+FP)召回率是指真正例占所有真的比例,即有多少真例被预测为正例recal = TP/(TP+FN)2/F = 1/precison + 1/recall...原创 2018-11-30 12:08:27 · 978 阅读 · 1 评论