机器学习:慎用float16,即使你的数据是整型!

开始

背景

前一段在公司做实验,本来想着如何节约运算空间,就打起了float16的主意。

数据类型

由于我是处理英文NLP类型的数据,所以采用了unigram的方式来切分单词
具体就是我采用了sentence piece model来train自己的spm模型
在使用spm模型中,可以一句话转成若干个subwords,而这些subwords就可以用id来表示

举个例子

通过spm模型,可以将这句话:
I am Q----> [41, 515, 11]
所以我的数据格式理所应当的就是整型数字了!

悲剧的发生

其实做过NLP的朋友都知道,在处理NLP数据里,对数据进行补零(Padding)是一个非常有必要的事情。
因为无论是简单的Vanilla RNN还是复杂如transformer,都是有一个max length的。
所以我就非常理所应当的用了keras里提供的pad_sequence方法来进行补零,方法代码如下:

..
  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值