简介
在我之前的系列文章LlamaIndex中,我讨论了使用、LangChain等工具构建 RAG 应用程序,GPT4All, Ollama以利用 LLM 满足特定用例。在这篇文章中,我将探讨另一种称为 LLM 微调的方法。我使用名为的工具在 macOS 上对 Meta 的 LLaMA-3 和 Mistral LLM 进行了微调MLX,该工具是专为 Apple 芯片上的机器学习研究量身定制的数组框架。这种微调是使用一种名为的技术完成的Low Rank Adapters(LoRA)。随后,这些经过微调的 LLM 使用运行Ollama。与本文相关的所有源代码都已在GitLab上发布。请克隆 repo 以继续阅读本文。