namemodel weightsnoteLLaMA7B, 13B, 33B, 65BVicunavicuna-7bVicunavicuna-13bAlpacaAlpaca-7B基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到AlpacaAlpaca-13BChinese-VicunaVicuna-lora-7b基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到Chinese-VicunaVicuna-lora-13b基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到Chinese-LLaMA-AlpacaChinese-LLaMA-7B基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到Chinese-LLaMA-AlpacaChinese-LLaMA-Plus-7B基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到Chinese-LLaMA-AlpacaChinese-LLaMA-13B基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到Chinese-LLaMA-AlpacaChinese-LLaMA-Plus-13B基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到Chinese-LLaMA-AlpacaChinese-LLaMA-33B基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到Chinese-LLaMA-AlpacaChinese-Alpaca-7B基于 Chinese-LLaMA,使用 LoRA 做 Fine-Tuning 得到Chinese-LLaMA-AlpacaChinese-Alpaca-Plus-7B基于 Chinese-LLaMA,使用 LoRA 做 Fine-Tuning 得到Chinese-LLaMA-AlpacaChinese-Alpaca-13B基于 Chinese-LLaMA,使用 LoRA 做 Fine-Tuning 得到Chinese-LLaMA-AlpacaChinese-Alpaca-Plus-13B基于 Chinese-LLaMA,使用 LoRA 做 Fine-Tuning 得到Chinese-LLaMA-AlpacaChinese-Alpaca-33B基于 Chinese-LLaMA,使用 LoRA 做 Fine-Tuning 得到ChatGLM-6BChatGLM-6BVisualGLM-6BVisualGLM-6B基于 ChatGLM-6B,使用 LoRA 做 Fine-Tuning 得到GLM-130BOPT-175B https://my.oschina.net/oscpyaqxylk/blog/8727824