利用生成模型进行时间序列数据的无监督对齐「Alignment」

作者单位:Champalimaud Centre for the Unknown「葡萄牙一个生物研究所」
Leveraging Generative Models for Unsupervised Alignment of Neural Time Series Data
它发表在2024 ICLR上的一篇高效处理数据不均衡问题的工作

一、主线任务

1、研究背景

  • 大型推理模型在神经科学中被广泛用于从高维神经记录中提取潜在表示。
  • 由于不同实验和动物之间的统计异质性,通常需要针对每个新数据集从头开始训练模型,这既耗费计算资源,也没有充分利用所有可用数据。
  • 机器学习领域中预训练模型的使用促进了少次学习和迁移学习的发展。

2、提出方法

作者提出了一种source-free「无需源数据」和unsupervised 无监督的对齐方法,利用学习到的动态性,使训练好的生成模型能够重用。该方法在模拟和运动皮层神经记录上进行了验证。

二、Introduction

随着记录水平的成熟,让我们可以访问大量同时记录的神经元(数据?),他们表现出复杂的时空活动。有了这些数据(信息),人们就大力开发可以从这些记录(数据?)中推断出底层结构的计算模型

比如:深度生成模型中的变分自动编码器「VAE」和顺序变分自动编码器「sequential variational auto-encoders」这些模型经过训练,可以提取驱动高维神经或行为观察的潜在动态过程(通常仅限于低维流形)。「不理解:低维流形是什么?」!!!!

1、遇到的问题

  1. 训练大型模型可能是数据密集型的;尽管同时记录的神经元数量不断增加,但受试者在单次实验期间可以执行的试验数量仍然有限(Williams & Linderman,2021)。
  2. 人们对研究该领域的自然行为越来越感兴趣,其中试验边界不明确,试验重复也很少(如果有的话)(Rosenberg et al., 2021; Kennedy, 2022; Minkowicz et al., 2023)。
  3. 训练深度神经网络的计算成本很高,并且可能带来一些挑战。这部分归因于训练过程和超参数优化之间的复杂关系,这会极大地影响模型的性能。

2、启发

预训练模型的使用推动了NLP和CV的发展,通过对这两个领域的观察而启发

模型re-use的优点:具有很高的数据效率「因为不需要重新训练」,能够功能实现比肩从头开始训练的模型(在使用很小一部分数据集的情况下)

类似「few shot」?

预训练模型的优点:通用性,可以通过fine-tuned来适应于各种任务(包括跨领域)。

基于上述的成功经验以及训练神经科学大型模型的兴趣启发。这个文章研究了使用预训练序列 VAE 的案例「seqVAEs」 用在神经时间序列数据上。seqVAEs从高维神经时间序列数据推断潜在的动态方面取得了广泛的成功。

seqVAEs是什么?(Azabou 等人,2023;Ye 等人,2023)

由于

  • 记录神经元的数量调谐特性的差异;
  • 记录模式的差异等;

导致数据集之间的统计异质性,预训练的 seqVAE 不能直接在新记录中重复使用。因此需要有一种对齐方式能让数据集之间对齐。这种新的对齐方式可以转换新数据集,使其在统计上与用于训练 seqVAE 的数据相似。以前用于学习神经数据集之间对齐的方法需要访问用于训练模型的原始数据和/或数据集之间存在配对样本(Degenhart 等人,2020;Chen 等人,2021;Williams 等人, 2021;Duong 等人,2023;Wang 等人,2023)。配对样本通常是通过在数据集中任意配对刺激条件神经活动来构建的。这完全忽略了试验间的变异性,并且不能应用于自然任务设置。「之前的配对样本是如何进行配对的?」

很多方法没有明确的对数据的时间结构进行建模,可能导致对齐学习的不理想(suboptimal,次优的,比最高标准差一点点)。

3、对齐方案

在这里插入图片描述
根据参考观察值,训练一个seqVAE用于学习一个encoder和一些底层的LDD(低维动态)

定义:

新观测值(new Observations): y n e w y_{new} ynew

y n e w ⟶ g ( . ) ⟶ g ( y n e w ) y_{new}\longrightarrow g(.)\longrightarrow g(y_{new}) ynewg.g(ynew), 然后可以输出 x x x

利用 g g g这个转换函数,隐式对齐

动力学约束,KL 散度最小

P ( X t ∣ X t − 1 ) P(X_{t}|X_{t-1}) P(XtXt1)

推理的潜在空间遵循参考的动力学约束。

4、本文贡献

  1. 我们提出了一种新颖的无监督方法,用于序列数据与低维动态的隐式对齐,从而能够重复使用经过训练的生成模型
  2. 对于线性和高斯设置,我们分析证明所提出的方法恢复了接近最优的对齐方式「有一个证明」
  3. 在合成数据和真实数据上,我们提供了经验证据,表明所提出的方法优于其他方法

三、相关工作

在对齐神经数据集以用于计算神经表示之间的度量等应用方面已经开展了大量工作。然而,大部分方法都需要:

  • 访问原数据集;
  • 要求两种数据集之间存在一一对应的关系
  • 没有利用神经时间序列中的时空结构,

NoMAD和ERDiff与所提方法之间的区别

a、NoMAD

lfads「通过动力学系统进行潜在因素分析」,首先在原始数据集上进行训练。通过最大化数据的对数似然并最小化原始数据集和对齐数据集的潜在状态分布之间的 KLD 来对齐新数据集,其中两者都被假设为高斯分布。至关重要的是,由于 LFADS 将潜在动态建模为确定性的,因此对数似然解释了数据的时空结构。

差异:

相比之下,方法要简单得多,因为它只需要训练一个输入编码器的廉价对齐函数。此外,我们通过使用预先训练的潜在动力学来明确考虑时空结构。

b、ERDiff

seqVAE 与时空扩散模型一起训练,该模型近似原始数据集的潜在分布。对于新数据,ERDiff 优化对齐函数从预训练的encoder中生成潜在状态。目的是让这个状态的数据潜在分布跟前面潜在分布(尽可能)相同。

差异:

需要训练seqVAE和时空扩散模型来进行数据集对齐,额外开销比较大,想重用或者共享预训练的seqVAE时,需要训练一个diffusion model。它没有使用学习到的潜在动态进行对齐(反复的使用encoder),而是依靠时空转换器来获得数据中的时空结构。

四、研究背景

1、什么是SeqVAE?

给定一个神经时间序列数据集

y 1 : T = [ y 1 , … y t , … y T ] y_{1: T}=\left[y_{1}, \ldots y_{t}, \ldots y_{T}\right] y1:T=[y1,yt,yT]

模型学习 θ 和 ϕ \theta和 \phi θϕ,然后由 y 1 : T 推测 x 1 : T y_{1: T}推测x_{1: T} y1:T推测x1:T「潜在状态」

后验概率 p ( x 1 : T ∣ y 1 : T ) p\left(x_{1: T} \mid y_{1: T}\right) p(x1:Ty1:T)和对数边际似然 P ( y 1 : T ) P(y 1: T) P(y1:T),计算困难。因此使用seqVAEs来应对挑战,其通过Evidence(p(x)) Lower Bound , ELBO实现.

附件笔记

2、神经时间序列对齐

通过在数据集 y 1 : T y_{1: T} y1:T训练一个SeqVAE可以重用于数据集 w 1 : T w_{1: T} w1:T

这个模型的神奇之处在于这两个数据集没有相似的分布「数据集收集时的偏差,仪器偏差,物种不同等」。

  1. 首先,学习一个对齐函数 g ϑ : ω → y g_\vartheta:\omega\rightarrow y gϑ:ωy如下函数:

y ^ t ≡ g ( w t ) \hat{y}_{t} \equiv g\left(w_{t}\right) y^tg(wt)

目的是优化目标数据分布与原始数据分布之间的距离,min is best。然而,不能简单的使用距离来减小分布距离,因为边界不清楚,所以,以前的方法大部分操作基于有监督进行的。
  1. 随后可以将投影数据馈送到预先训练的编码器, q ψ ( x t ∣ g ϑ ( w 1 : T ) ) q_{\psi}\left(x_{t} \mid g_{\vartheta}\left(w_{1: T}\right)\right) qψ(xtgϑ(w1:T))

主角:神经时间序列的无监督对齐

假设:两个数据集之间的潜在动态「underlying latent dynamics」相同。故允许我们修正经过训练的动力学模型的参数 P θ ( x t ∣ x t − 1 ) P_θ(x_t | x_{t−1}) Pθ(xtxt1)

SeqVAEs: p ϕ ( y t ∣ x t ) p_{\phi}\left(y_{t} \mid x_{t}\right) pϕ(ytxt)「似然函数」和$
$ q ψ ( x t ∣ g ϑ ( w 1 : T ) ) q_{\psi}\left(x_{t} \mid g_{\vartheta}\left(w_{1: T}\right)\right) qψ(xtgϑ(w1:T))「编码器」组成。

高质量对齐函数需要符合: q ψ ( x 1 : T ∣ y 1 : T ) ≈ p ( x 1 : T ∣ y 1 : T ) q_{\psi}\left(x_{1: T} \mid y_{1: T}\right)\approx p\left(x_{1: T} \mid y_{1: T}\right) qψ(x1:Ty1:T)p(x1:Ty1:T)

通过最小化 q(x | gθ(w)) 和 p(x | w) 之间的预期 Kullback-Leibler 散度来优化对齐参数 θ

D K L D_{KL} DKL

最佳对齐函数的对齐效果

q ( x ∣ y ) = p ( x ∣ y ) = N ( μ ( y ) , Σ ) μ ( y ) ≜ Σ A ⊤ Q − 1 y Σ ≜ ( A ⊤ Q − 1 A + I ) − 1 \begin{array}{l}q(x \mid y)=p(x \mid y)=\mathcal{N}(\mu(y), \Sigma) \\ \mu(y) \triangleq \Sigma A^{\top} Q^{-1} y \\ \Sigma \triangleq\left(A^{\top} Q^{-1} A+I\right)^{-1}\end{array} q(xy)=p(xy)=N(μ(y),Σ)μ(y)ΣAQ1yΣ(AQ1A+I)1

V*和Ve对齐

ϑ † = arg ⁡ min ⁡ ϑ E p ( w , y ) [ ( y − ϑ w ) ⊤ ( y − ϑ w ) ] \vartheta_{\dagger}=\underset{\vartheta}{\arg \min } \mathbb{E}_{p(w, y)}\left[(y-\vartheta w)^{\top}(y-\vartheta w)\right] ϑ=ϑargminEp(w,y)[(yϑw)(yϑw)]

ϑ ⋆ = arg ⁡ max ⁡ ϑ E p ( w ) [ E q ( x ∣ g ϑ ( w ) ) [ log ⁡ p ( w ∣ x ) + log ⁡ p ( x ) − log ⁡ q ( x ∣ g ϑ ( w ) ) ] ] \vartheta_{\star}=\underset{\vartheta}{\arg \max } \mathbb{E}_{p(w)}\left[\mathbb{E}_{q\left(x \mid g_{\vartheta}(w)\right)}\left[\log p(w \mid x)+\log p(x)-\log q\left(x \mid g_{\vartheta}(w)\right)\right]\right] ϑ=ϑargmaxEp(w)[Eq(xgϑ(w))[logp(wx)+logp(x)logq(xgϑ(w))]]

未完待续。。。

  • 10
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值