- 博客(8)
- 收藏
- 关注
原创 【nlp】模型量化与高效微调
在混合精度的模型训练过程中,使用FP16进行矩阵乘法运算,利用FP32来进行矩阵乘法中间的累加(accumulated),然后再将FP32的值转化为FP16进行存储。为了解决梯度过小数据下溢的问题,对前向计算出来的Loss值进行放大操作,也就是把FP32的参数乘以某一个因子系数后,把可能溢出的小数位数据往前移,平移到FP16能表示的数据范围内。(1)减少内存占用:FP16的位宽是FP32的一半,权重等参数所占内存也是原有精度下模型的一半,节省的内存可以用于更大规模模型和更多数据的训练;
2024-02-29 16:50:41 1055
原创 【nlp】spaCy的special cases中token无法切分问题
spaCy的special cases中token无法切分问题的解决方法
2022-05-23 16:05:19 250
原创 【python报错】CUDA error: device-side assert triggered
跑nlp模型时报错CUDA error: device-side assert triggered,经排查为样本标签错误。
2022-01-06 20:44:25 1248
原创 【python报错】[WinError 123] 文件名、目录名或卷标语法不正确。: ‘data\\save\\conll04_train\\2021-12-09_13:01:00.352937‘
跑nlp模型时报错[WinError 123] 文件名、目录名或卷标语法不正确。可能与操作系统的文件命名要求有关。
2021-12-09 13:35:40 7665 8
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人