计算模型中的可训练参数数量:print_trainable_parameters【参考LoRA】

本文介绍了2023年深度学习入门的关键概念,特别是通过PEFT(Parameter-efficient Fine-tuning)和LoRA(Low-Rank Adaptation)技术,探讨了如何在计算模型中计算和理解可训练参数的数量。通过实例演示,帮助读者掌握这一核心概念。
摘要由CSDN通过智能技术生成

def print_trainable_parameters(model):
    """
    Prints the number of trainable parameters in the model.
    """
    trainable_params = 0
    all_param = 0
    for _, param in model.named_parameters():
        all_param += param.numel()
        if param.requires_grad:
            trainable_params += param.numel()
    print(f"trainable params: {trainable_params} || all params: {all_param} || trainable%: {100 * trainable_params / all_param}")

运行一下:

print_trainable_parameters(model)

输出结果如下:

trainable params: 8388608 || all params: 6666862592 || trainable%: 0.12582542214183376




2023年的深度学习入门指南(12) - PEFT与LoRA_Jtag特工的博客-CSDN博客

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值