ML
夏天的欧文
这个作者很懒,什么都没留下…
展开
-
偏差和方差
https://zhuanlan.zhihu.com/p/38853908泛化误差,偏差,方差,噪声在机器学习中,我们用训练数据集去训练一个模型,通常的做法是定义一个误差函数,通过将这个误差的最小化过程,来提高模型的性能。然而我们学习一个模型的目的是为了解决训练数据集这个领域中的一般化问题,单纯地将训练数据集的损失最小化,并不能保证在解决更一般的问题时模型仍然是最优,甚至不能保证模型...转载 2020-05-07 13:34:21 · 239 阅读 · 0 评论 -
三层BP神经网络实现
数据集:鸢尾花数据iris.csv附上数据集:链接:https://pan.baidu.com/s/1OwpiKGctr1QDFeP42dR2Bw提取码:htgl实现读取iris.csv文件处理def get_iris(): name = ['f1', 'f2', 'f3', 'f4', 'y'] data = pd.read_csv...原创 2020-04-06 15:39:22 · 1585 阅读 · 3 评论 -
交叉熵代价函数(作用及公式推导)
转载:https://blog.csdn.net/u014313009/article/details/510430641.交叉熵代价函数的作用?交叉熵代价函数(Cross-entropy cost function)是用来衡量人工神经网络(ANN)的预测值与实际值的一种方式。与二次代价函数相比,它能更有效地促进ANN的训练(我们希望:ANN在训练时,如果预测值与实际值的误差越大,那么在...转载 2020-04-02 10:58:06 · 279 阅读 · 0 评论 -
数据规范化
https://www.jianshu.com/p/7a8aa50a0236转载 2020-03-03 18:36:13 · 151 阅读 · 0 评论 -
梯度下降算法
梯度下降的直观解释 首先来看看梯度下降的一个直观的解释。比如我们在一座大山上的某处位置,由于我们不知道怎么下山,于是决定走一步算一步,也就是在每走到一个位置的时候,求解当前位置的梯度,沿着梯度的负方向,也就是当前最陡峭的位置向下走一步,然后继续求解当前位置梯度,向这一步所在位置沿着最陡峭最易下山的位置走一步。这样一步步的走下去,一直走到觉得我们已经到了山脚。当然这样走下去,有可能我们不能走...转载 2020-03-06 18:55:12 · 129 阅读 · 0 评论 -
KNN算法实现
KNNk-近邻(kNN,k-NearestNeighbor)算法是一种基本分类与回归方法,我们这里只讨论分类问题中的 k-近邻算法。k-近邻算法的输入为实例的特征向量,对应于特征空间的点;输出为实例的类别,可以取多类。k-邻算法假设给定一个训练数据集,其中的实例类别已定。分类时,对新的实例,根据其 k 个最近邻的训练实例的类别,通过多数表决等方式进行预测。因此,k近邻算法不具有显式的学习...原创 2020-02-15 17:33:32 · 280 阅读 · 0 评论