使用昇腾910A卡进行微调训练;
训练模型时报错:
算子报错,找不到FlashAttentionScore算子,全局搜索FlashAttentionScore发现算子只存在于910B中
打开安装的cann-kernal包
910A:
910B:
发现910A无FlashAttentionScore算子,910A暂时不支持,当前版本暂时只能使用910B运行llama模型的训练微调。
使用昇腾910A卡进行微调训练;
训练模型时报错:
算子报错,找不到FlashAttentionScore算子,全局搜索FlashAttentionScore发现算子只存在于910B中
打开安装的cann-kernal包
910A:
910B:
发现910A无FlashAttentionScore算子,910A暂时不支持,当前版本暂时只能使用910B运行llama模型的训练微调。