机器学习
文章平均质量分 66
个人学习笔记
scu_ding1
这个作者很懒,什么都没留下…
展开
-
pre-training
预训练:使用尽可能多的训练数据,从中提取出尽可能多的共性特征,从而让模型对特定任务的学习负担变轻。预训练思想的本质a.模型参数不再是随机初始化,而是通过一些任务进行预训练b.将训练任务拆解成共性学习和特性学习两个步骤上面两句话分别从两个不同的角度来解释预训练思想的本质。第一句话从模型的角度,第二句话从数据的角度。预训练的做法一般是将大量低成本收集的训练数据放在一起,经过某种预训方法去学习其中的共性,然后将其中的共性“移植”到特定任务的模型中,再使用相关特定领域的少量标注数据进行“微调”原创 2024-03-14 02:13:12 · 348 阅读 · 0 评论 -
Iris dataset
由Fisher, 1936收集整理。Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。数据集包含150个数据样本,分为3类,每类50个数据,每个数据包含4个属性。可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Iris数据集是常用的。)三个种类中的哪一类。原创 2022-09-18 15:24:00 · 67 阅读 · 0 评论 -
8013Notes
似然比检验的思想是:“如果参数约束是有效的,那么加上这样的约束不应该引起似然函数最大值的大幅度降低。简单线性模型假设数据和响应变量之间是正态分布的关系,这个正态分布 就是 指数家族的一员。GLM 在lm的基础上进行扩展, 不再要求 “数据和响应变量之间是正态分布” 的关系, 而是要求 “数据和响应变量之间的关系是指数家族中的某一种” 即可。回顾likelihood,它给出了一种获取模型参数点估计的方法(MLE) ,模型是一堆PDF/PMF的joint, 而指数家族,就是一些经典常见的 PDF/PMF。原创 2023-03-16 00:37:10 · 39 阅读 · 0 评论