Adapting Mental Health Prediction Tasks for Cross-lingual Learning via Meta-Training and In-context

本文是LLM系列文章,针对《Adapting Mental Health Prediction Tasks for Cross-lingual Learning via Meta-Training and In-context Learning with Large Language Model》的翻译。

通过元训练和大语言模型的情境学习调整跨语言学习的心理健康预测任务

摘要

及时识别对于有效处理抑郁症等心理健康疾病至关重要。然而,目前的研究未能充分解决从斯瓦希里语等低资源非洲语言的社交媒体数据中预测心理健康状况的问题。本研究介绍了两种不同的方法,即利用模型无关元学习和利用大型语言模型(LLM)来解决这一差距。实验在翻译成低资源语言的三个数据集上进行,并应用于四项心理健康任务,包括压力、抑郁、抑郁严重程度和自杀意念预测。我们首先应用了一个具有自我监督的元学习模型,这改进了模型初始化,以实现快速适应和跨语言迁移。结果表明,我们的元训练模型的性能明显优于标准微调方法,在宏观F1得分方面优于基线微调,分别比XLM-R和mBERT高出18%和0.8%。同时,我们利用LLM的情境学习能力,通过分析不同的跨语言提示方法,评估其在斯瓦希里语心理健康预测任务中的表现准确性。我们的分析表明,斯瓦希里语提示比跨语言提示表现更好,但不如英语提示。我们的研究结果表明,通过精心制作的带有示例和说明的提示模板,可以通过跨语言迁移来实现因纽特人的学习。

1 引言

2 相关工作

3 方法

4 数据集

5 实验

6 结果与分析

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值