元学习(meta learning)是解决小样本问题非常重要的一个方法
在小样综述Generalizing from a Few Examples: A Survey on Few-shot Learning 中对元学习有这样的描述:
经过一组训练任务得到多个网络参数,使得所有网络的损失最小。用另一组不相交的任务来训练模型的泛化能力,这组任务的平均损失就是元学习的测试误差。
」是不是还是有点摸不着头脑?元学习是“学习如何学习”,这句话到底是什么意思?为什么这样一种方法就能够解决小样本问题呢?
在论文A Method of Few-Shot Network Intrusion Detection Based on Meta-Learning Framework有一个很好的解释。
我们举一个异常流量监测的简单例子:
- 有五种类型的网络流量样本,表示为O、A、B