对于LLaMa-6b模型来说 1、训练时模型本身参数、梯度值、优化器参数值需要的内存大小为: 2、 每个样本需要的内存大小(): 3、基于第1/2条,对于A100显卡(80GB RAM)来说,batch_size最大可以设置为50