![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 65
菜鸟入门机器学习
zczyyds
这个作者很懒,什么都没留下…
展开
-
机器学习7:调参和最终模型
调参和最终模型原创 2023-10-20 10:51:43 · 121 阅读 · 0 评论 -
优化问题中的凸函数
但我们在实际情况下却并不常使用这个作为我们的loss function, 这是因为当我们想要让逻辑回归方程里的参数进行学习的时候,当考虑优化问题时,会发现变成了非凸问题(non-convex problem): 即出现了多个local optima, 无法找到global optima。然而,当损失函数是非凸函数时,由于存在多个局部最小值,找到全局最小值变得更具挑战性。并且,二阶可导的一元函数f为凸函数,当且仅当他的二阶导数f''在定义域上是非负的。原创 2023-09-15 22:47:44 · 43 阅读 · 1 评论 -
机器学习6:评估方法(Evaluation Method)
通常情况下,我们通过将学习器在测试集上进行测试,收集泛化误差,来对模型进行评估和选择,那么,当我们只有一个包含 m 个 example 的数据集时,如何划分出 training set 和 testing set 呢?原创 2023-08-13 16:05:45 · 143 阅读 · 1 评论 -
机器学习5:经验误差和过拟合(Emperical Error & Overfitting)
• 错误率 (error rate): m 个样本中 a 个分类错误,错误率 E = a/m• 精度 (accuracy): 1 − a/m• 经验误差 (empirical error)/训练误差 (training error): 学习器在训练集上的误差• 泛化误差 (generalization error): 学习器训练后在新样本上的误差(注:误差指的是学习器的实际预测输出和样本的真实输出之间)原创 2023-08-11 19:44:37 · 134 阅读 · 1 评论 -
机器学习4: 归纳偏好和NFL定理(Inductive Bias &NFL Theorem)
如现在已有的样本数据为 (x1, 0),(x2, 1),那么此时 f2 才是我们认为的真实目标函数,由于没有收集到或者压根不存在 (x1, 0),(x2, 0), (x1, 1),(x2, 0),(x1, 1),(x2, 1) 这类样本,所以 f1, f3, f4 都不算是真实目标函数。但这个推导并不完全,需要注意的是,在这里我们假设真实的目标函数 f 服从均匀分布,但是实际 情形并非如此,通常我们只认为能高度拟合已有样本数据的函数才是真实目标函数。这就是 NFL 定理。原创 2023-08-03 17:33:06 · 145 阅读 · 0 评论 -
机器学习3: 假设空间和版本空间(Hypothesis Space and Version Space)
学习的过程可以被看作是在所有假设 (hypothesis) 组成的空间中进行搜索的过程,所搜的目的是找到能够与数据集所匹配 (fit) 的假设。假设的表示一旦确定,假设空间及其规模大小也就确定了。原创 2023-08-03 17:13:02 · 880 阅读 · 0 评论 -
机器学习2: 机器学习中的基本术语
机器学习中的基本术语原创 2023-07-31 12:03:39 · 34 阅读 · 1 评论 -
机器学习1:机器学习目的与数据集,样本空间
机器学习目的与数据集,样本空间原创 2023-07-31 11:06:26 · 189 阅读 · 1 评论