LLM推理优化我认为总共可以分为以下几个方面:
- 优化KV Cache
- MQA
- GQA
- MLA
- 调度
- Continuous batching
- KIMI的调度系统Mooncake
- 魔改模型结构或者魔改 attention 计算
- MOE架构
- flash attention
- paged attention
- 量化
- AWQ
- GPTQ
- 其他角度
- 一次解码 n 个 token 来尽可能充分利用子回归解码中没有充分利用的算力
- 投机采样
- Lookahead Decoding
- Prompt Decoding
- 一次解码 n 个 token 来尽可能充分利用子回归解码中没有充分利用的算力