[持续学习] Fisher信息矩阵与EWC

一、前置知识

1. 得分函数 score / informant

score / informant 定义为对数似然函数关于参数的梯度:

s ( θ ) ≡ ∂ log ⁡ L ( θ ) ∂ θ s(\theta) \equiv \frac{\partial\log{\mathcal{L}(\theta)}}{\partial\theta} s(θ)θlogL(θ)

其中 L ( θ ) \mathcal{L}(\theta) L(θ)即为似然函数,可扩写为 L ( θ ∣ x ) \mathcal{L}(\theta |x) L(θx),其中 x x x为观测到的数据, x x x从采样域 X \mathcal{X} X中产生

在某一特定点的 s s s 函数指明了该点处对数似然函数的陡峭程度(steepness),或者是函数值对参数发生无穷小量变化的敏感性。

如果对数似然函数定义在连续实数值的参数空间中,那么它的函数值将在(局部)极大值与极小值点消失。这一性质通常用于极大似然估计中(maximum likelihood estimation, MLE),来寻找使得似然函数值极大的参数值。


注意 L ( θ ∣ x ) \mathcal{L}(\theta |x) L(θx)中竖线前后的字母 θ ∣ x \theta|x θx x x x为随机变量,在这里则是一个定值,意为采样后的观测值,而 θ \theta θ则为自变量,意为参数模型中的参数

当(假设 θ \theta θ位于正确值时,我们可以通过 θ \theta θ推导 x x x,也就是 f ( x ∣ θ ) f(x|\theta) f(xθ) ,为一概率密度函数,意为当模型参数为 θ \theta θ时,采样到 x x x的概率

从两个角度得到了对同一事实的论证,因此可写作 f ( x ∣ θ ) = L ( θ ∣ x ) f(x|\theta) = \mathcal{L}(\theta | x) f(xθ)=L(θx)


首先,来分析 s s s的数学期望,这里讨论的问题是:当参数取值为 θ \theta θ时, s ∣ θ s|\theta sθ的数学期望

从直观上分析,当参数位于真实最佳)参数点时,似然函数有其极大值(考虑极大似然估计的定义),因此为一极值点,所以该点梯度为 0 0 0,即 E [ s ∣ θ ] = 0 \mathbb{E}[s|\theta]= 0 E[sθ]=0

下面进行公式分析:

首先要明确,该期望是 s s s函数关于什么随机变量的期望。从上面的讨论中可以得到,该问题中唯一的随机变量是采样观测值 x x x,它的采样概率是 f ( x ∣ θ ) f(x|\theta) f(xθ)

注意:

f ( x ) ∂ log ⁡ f ( x ) ∂ x = f ( x ) 1 f ( x ) ∂ f ( x ) ∂ x = ∂ f ( x ) ∂ x \begin{aligned} & f(x) \frac{\partial\log{f(x)}}{\partial{x}} \\ = & {f(x)} \frac{1}{f(x)} \frac{\partial{f(x)}}{\partial{x}} \\ = & \frac{\partial{f(x)}}{\partial{x}} \end{aligned} ==f(x)xlogf(x)f(x)f(x)1xf(x)xf(x)

所以:

E [ s ∣ θ ] = ∫ X f ( x ∣ θ ) ⋅ s ⋅ d x = ∫ X f ( x ∣ θ ) ∂ log ⁡ L ( θ ∣ x ) ∂ θ d x = ∫ X f ( x ∣ θ ) ∂ log ⁡ f ( x ∣ θ ) ∂ θ d x = ∫ X ∂ f ( x ∣ θ ) ∂ θ d x = ∂ ∂ x ∫ X f ( x ∣ θ ) d x = ∂ ∂ x 1 = 0 ■ \begin{aligned} \mathbb{E}[s|\theta] & = \int_{\mathcal{X}}f(x|\theta)\cdot{}s\cdot{}\mathrm{d}x \\ & = \int_{\mathcal{X}}f(x|\theta) \frac{\partial\log{\mathcal{L}(\theta|x)}}{\partial\theta} \mathrm{d}x \\ & = \int_{\mathcal{X}}f(x|\theta) \frac{\partial\log{f(x|\theta)}}{\partial\theta} \mathrm{d}x \\ & = \int_{\mathcal{X}} \frac{\partial f(x|\theta)}{\partial{\theta}} \mathrm{d}x \\ & = \frac{\partial}{\partial{x}} \int_{\mathcal{X}}f(x|\theta)\mathrm{d}x \\ & = \frac{\partial}{\partial{x}} 1 \\ & = 0\qquad\blacksquare \\ \end{aligned} E[sθ]=Xf(xθ)sdx=Xf(xθ)θlogL(θx)dx=Xf(xθ)θlogf(xθ)dx=Xθf(xθ)dx=xXf(xθ)dx=x1=0

因此得证: E [ s ∣ θ ] = 0 \mathbb{E}[s|\theta]= 0 E[sθ]=0

2. Fisher信息矩阵

Fisher信息(Fisher information),或简称为信息(information)是一种衡量信息量的指标

假设我们想要建模一个随机变量 x x x 的分布,用于建模的参数是 θ \theta θ,那么Fisher信息测量了 x x x 携带的对于 θ \theta θ 的信息量

所以,当我们固定 θ \theta θ 值,以 x x x 为自变量,Fisher 信息应当指出这一 x x x 值可贡献给 θ \theta θ 多少信息量

比如说,某一 θ \theta θ 点附近的函数平面非常陡峭(有一极值峰值),那么我们不需要采样多少 x x x 即可做出比较好的估计,也就是采样点 x x x 的Fisher 信息量较高。反之,若某一 θ \theta θ 附近的函数平面连续且平缓,那么我们需要采样很多点才能做出比较好的估计,也就是 Fisher 信息量较低。

从这一直观定义出发,我们可以联想到随机变量的方差,因此对于一个(假设的)真实参数 θ \theta θ s s s 函数的 Fisher 信息定义为 s s s 函数的方差

I ( θ ) = E [ ( ∂ ∂ θ log ⁡ f ( x ∣ θ ) ) 2 ∣ θ ] = ∫ ( ∂ ∂ θ log ⁡ f ( x ∣ θ ) ) 2 f ( x ; θ ) d x \begin{aligned} \mathcal{I} (\theta) & =\mathbb{E}\left[\left.\left({\frac {\partial }{\partial \theta }}\log f(x|\theta )\right)^{2}\right|\theta \right] \\ & = \int \left({\frac {\partial }{\partial \theta }}\log f(x|\theta )\right)^{2}f(x;\theta )\mathrm{d}x \end{aligned} I(θ)=E[(θlogf(xθ))2θ]=(θlogf(xθ))2f(x;θ)dx

此外,如果 log ⁡ f ( x ∣ θ ) \log f(x|\theta) logf(xθ) 对于 θ \theta θ 二次可微,那么 Fisher 信息还可以写作

I ( θ ) = − E [ ∂ 2 ∂ 2 θ log ⁡ f ( x ∣ θ ) ∣ θ ] \mathcal{I}(\theta) = -\mathbb{E}\left[\left.{\frac {\partial^2}{\partial^2 \theta }}\log f(x|\theta )\right|\theta \right] I(θ)=E[2θ2logf(xθ)θ]

证明如下:

∵ 0 = E [ s ∣ θ ] ∴ 0 = ∂ ∂ θ E [ s ∣ θ ] = ∂ ∂ θ ∫ X f ( x ∣ θ ) ∂ log ⁡ L ( θ ∣ x ) ∂ θ d x = ∫ X ∂ ∂ θ ∂ log ⁡ L ( θ ∣ x ) ∂ θ f ( x ∣ θ )   d x ▹  use chain rule = ∫ X { ∂ 2 log ⁡ L ( θ ∣ x ) ∂ 2 θ f ( x ∣ θ ) + ∂ f ( x ∣ θ ) ∂ θ ∂ log ⁡ L ( θ ∣ x ) ∂ θ } d x = ∫ X ∂ 2 log ⁡ L ( θ ∣ x ) ∂ 2 θ f ( x ∣ θ ) d x ⏟ A + ∫ X ∂ L ( θ ∣ x ) ∂ θ ∂ log ⁡ L ( θ ∣ x ) ∂ θ d x ⏟ B A = E [ ∂ 2 log ⁡ L ( θ ∣ x ) ∂ 2 θ ∣ θ ] B = ∫ X ∂ L ( θ ∣ x ) ∂ θ ∂ log ⁡ L ( θ ∣ x ) ∂ θ d x = ∫ X ∂ log ⁡

### 回答1: PyTorch是一个开源的深度学习框架,它为持续学习提供了很好的支持。持续学习是指通过不断地学习新的数据、调整模型和继续训练,从而实现模型的优化和更新。下面是使用PyTorch实现持续学习的一些关键步骤: 1. 数据处理:将新的数据加载到PyTorch中,并进行预处理操作,例如数据标准化、数据增强等。可以使用PyTorch中的数据加载器(DataLoader)和数据预处理工具(transform)加快处理过程。 2. 模型加载:加载已经训练好的模型参数,可以使用PyTorch的torch.load()函数加载先前训练模型的参数。 3. 模型调整:根据新的数据特点,对模型进行微调或调整。可以使用PyTorch提供的灵活的模型定义和修改方式,例如修改模型的层结构、修改激活函数等。 4. 优化器选择:选择合适的优化器,例如Adam、SGD等,以在持续学习过程中调整模型的权重。 5. 训练过程:使用新的数据对模型进行训练,并反复迭代调整模型。可以使用PyTorch提供的自动微分功能,加快梯度计算和模型更新过程。 6. 模型保存:在每次训练迭代结束后,保存模型的最新参数。可以使用PyTorch的torch.save()函数保存模型参数。 7. 持续学习:重复上述步骤,对新的数据进行处理、模型调整和训练过程,以实现模型的持续学习。 通过上述步骤,使用PyTorch可以实现持续学习的过程。凭借其灵活性和强大的计算能力,PyTorch能够满足各种深度学习模型对于持续学习的需求,并为模型的优化提供支持。同时,PyTorch还提供了丰富的工具和函数,帮助开发者更高效地实现持续学习。 ### 回答2: PyTorch是一个开源的机器学习框架,它提供了丰富的工具和功能来支持持续学习持续学习指的是通过新数据的输入,持续改进和更新现有的模型,以适应不断变化的环境和任务。 PyTorch提供了一个灵活和可扩展的架构,使得持续学习变得更加容易。以下是在PyTorch中实现持续学习的一些关键步骤: 1. 数据管理:持续学习需要处理不断变化的数据。PyTorch中的DataLoader和Dataset类可以帮助加载和管理数据集。您可以创建一个数据加载器来批量加载新的数据集,并将其与之前的数据集合并。 2. 模型更新:当有新的数据到达时,您可以使用PyTorch的优化器来更新模型的参数,以适应新的数据。您可以使用反向传播算法计算损失,并调用优化器的`step`函数来更新模型的参数。 3. 继续训练:持续学习意味着在之前训练的基础上继续学习。您可以加载之前训练保存的模型,并在新的数据上进行训练。在PyTorch中,您可以使用`torch.load`函数加载之前训练的模型,并通过调用`train`函数来继续训练。 4. 模型评估:持续学习需要在新的数据上进行模型评估,以评估其性能和适应能力。您可以使用PyTorch中的评估函数和指标来评估模型的准确性和效果。 5. 灵活性:PyTorch的灵活性使得您可以自定义和调整模型结构,以适应不同的任务和数据。您可以根据新的数据特点调整模型的层次、结构和参数。 总之,PyTorch为持续学习提供了丰富的功能和易用的工具。通过管理数据、更新模型、继续训练和模型评估,您可以在PyTorch中有效地实现持续学习。 ### 回答3: 在PyTorch中实现持续学习的关键是使用动态图的特性和灵活的模型更新方法。 首先,PyTorch的动态图机制允许我们在运行时构建和修改模型图,这使得持续学习更加容易。我们可以将新的数据集添加到已经训练的模型上,并通过反向传播来更新模型的权重。这样,我们可以通过在已有模型上继续训练来逐步适应新的数据,而无需重新训练整个模型。 其次,持续学习的另一个重要问题是防止旧知识的遗忘。为了解决这个问题,我们可以使用增量学习方法,如Elastic Weight Consolidation(EWC)或Online Deep Learning(ODL)。这些方法通过使用正则化项或定义损失函数来限制新训练数据对旧知识的影响,从而保护旧有的模型参数。 此外,我们还可以使用PyTorch提供的模型保存和加载功能来实现持续学习。我们可以定期保存模型的参数和优化器状态,以便在需要时恢复模型,并继续训练过程。通过这种方式,我们可以持续积累更多的数据和知识,而无需从头开始每次都重新训练模型。 总的来说,PyTorch提供了灵活的动态图和丰富的工具,使得实现持续学习变得简单。我们可以通过动态修改模型图、使用增量学习方法来应对新数据和旧知识的挑战,并使用模型保存和加载功能来持续积累数据和知识。这些方法的组合可以帮助我们在PyTorch中实现高效的持续学习
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值