本文是LLM系列文章,针对《Adapting Mental Health Prediction Tasks for Cross-lingual Learning via Meta-Training and In-context Learning with Large Language Model》的翻译。
摘要
及时识别对于有效处理抑郁症等心理健康疾病至关重要。然而,目前的研究未能充分解决从斯瓦希里语等低资源非洲语言的社交媒体数据中预测心理健康状况的问题。本研究介绍了两种不同的方法,即利用模型无关元学习和利用大型语言模型(LLM)来解决这一差距。实验在翻译成低资源语言的三个数据集上进行,并应用于四项心理健康任务,包括压力、抑郁、抑郁严重程度和自杀意念预测。我们首先应用了一个具有自我监督的元学习模型,这改进了模型初始化,以实现快速适应和跨语言迁移。结果表明,我们的元训练模型的性能明显优于标准微调方法,在宏观F1得分方面优于基线微调,分别比XLM-R和mBERT高出18%和0.8%。同时,我们利用LLM的情境学习能力,通过分析不同的跨语言提示方法,评估其在斯瓦希里语心理健康预测任务中的表现准确性。我们的分析表明,斯瓦希里语提示比跨语言提示表现更好,但不如英语提示。我们的研究结果表明,通过精心制作的带有示例和说明的提示模板,可以通过跨语言迁移来实现因纽特人的学习。