python系列&deep_study系列:LLM大模型1_基础知识




LLM大模型1_基础知识

首先,模型训练好后是原始版本,这个时候的模型是体积最大的,仅能通过transformers使用.当然,这个时候的模型也是相容性最好的,基本上只要能支持transformers的机器都能跑起来.而transformers算是AI界最通用的算法系统了.
其次,由於原始模型体积大速度慢等因素很多大老们发明了将其缩小但是不那么影响模型品质的方式,那就是量化,现在最常见的量化方式就是GPTQGGML.我们一般都是使用量化后的模型因為他们需要的VRAMRAM能够降低很多.比如33B的模型没有量化大概需要50G~65GVRAMRAM,量化后24G就足够了.实际模型载入大概1XG,剩下的空间用来推理使用,已经完全足够.

模型类型与装载器:

原始模型装载器名称标示特点
原始模型transformers多个连续的数字编号档案构成,如001-of-008,002-of-008,003-of-008目录
GPTQAutoGPTQ
ExLlama
ExLlama_HF
GPTQ-for-LLaMa
GGMLllama.cpp模型名称中包含GGML,只有一个文件扩展名为.bin

名称说明

7B,13B,33B,65B,170B1B=10亿
fp16fp16精度版,一般当作量化前的小体积原始版保存用
8K8K上下文长度的模型
4bit采用4bit量化的模型.一般為了节省VRAM或RAM
128g量化中采用128g参数的模型.g=groupsize
gpt4采用gpt4的校准数据,也就是经过gpt4调教,一般是针对某些方面强化的,就目前来说常见的是聊天强化
Chat聊天强化
QLoRAQLoRA微调的版本
LoRALoRA微调的版本
Uncensored未經審查版(去除了思想鋼印)
NSFW在未經審查版本的基礎上针对NSFW(工作場所不宜)內容強化的版本
OPTOPT格式,這不是LLaMa系列的模型.是由KoboldAI自己開發的系列,最初是用來寫作方面的,他們的數據都是未經審查且NSFW強化的
SuperHOT扩展上下文長度的版本
SuperCOTLoRA加強模型逻辑,一般用來写作

资源占用

模型原始尺寸所需RAM大小量化后所需RAM大小(4bit)
7B13GB3.9GB
13B24GB7.8GB
30B60GB19.5GB
65B120GB38.5GB







Sanfor

LLM大模型1_基础知识

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

坦笑&&life

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值