机器学习
文章平均质量分 59
Xurui_Luo
这个作者很懒,什么都没留下…
展开
-
如何理解深度学习中的局部最优
错觉深度神经网络“容易收敛到局部最优”,很可能是一种想象,实际情况是,我们可能从来没有找到过“局部最优”,更别说全局最优了。很多人都有一种看法,就是“局部最优是神经网络优化的主要难点”。这来源于一维优化问题的直观想象。在单变量的情形下,优化问题最直观的困难就是有很多局部极值,如:人们直观的想象,高维的时候这样的局部极值会更多,指数级的增加,于是优化到全局最优就更难了。然而单变量到多变量一个重要差异是,单变量的时候,Hessian 矩阵只有一个特征值,于是无论这个特征值的符号正负,一个临界点都是局部原创 2021-04-23 10:39:22 · 3061 阅读 · 0 评论 -
纯numpy实现LogisticRegression逻辑回归多分类任务-鸢尾花多分类,带解释
代码import pandas as pdimport numpy as npfrom sklearn.datasets import load_irisfrom sklearn.model_selection import train_test_splitdef create_data(): iris = load_iris() df = pd.DataFrame(iris.data, columns=iris.feature_names) df['label'] =原创 2020-08-20 15:08:59 · 1790 阅读 · 0 评论 -
机器学习分类问题的损失函数-交叉熵损失
好处: 把每个类,模型估计出来的概率,即模型的表现都充分考虑了进来参考原创 2020-08-04 19:42:39 · 180 阅读 · 0 评论