本文是LLM系列文章,针对《Jellyfish: A Large Language Model for Data Preprocessing》的翻译。
Jellyfish:一种用于数据预处理的大型语言模型
摘要
作为数据挖掘管道中的关键步骤,数据预处理(DP)是将原始数据转换为便于处理的干净格式的过程。虽然存在各种DP任务,如错误检测和实体匹配,但大多数当前的DP解决方案仅限于一个或两个特定任务。大型语言模型(LLM)的出现,特别是那些对自然语言提示做出响应的模型,激发了人们对开发适用于广泛DP任务的通用解决方案的兴趣。然而,该领域的现有方法通常依赖于OpenAI的GPT API,这引发了不可避免的数据泄露问题。
在本文中,我们介绍了Jellyfish,一种开源LLM,作为DP的通用任务求解器。Jellyfish建立在Llama 2-13B模型的基础上,利用几个典型DP任务的数据集进行指令调整,包括错误检测、数据插补、模式匹配和实体匹配,并为其他任务提供可推广性。
值得注意的是,Jellyfish可以在具有130亿参数的本地、单个和低价GPU上运行,确保数据安全并实现进一步的调优。它在理解自然语言方面的熟练程度允许用户手动编写DP任务的指令。与许多严重依赖先验知识的现有方法不同,Jellyfish在调整过程中获取领域知识,并在推理过程中集成可选的知识注入。Jellyfish的一个显著特点是它的解