BUG-‘Tokenizer’ object has no attribute ‘oov_token’

使用keras包实现NLP问题时,报错

/lib/python3.5/dist-packages/keras/preprocessing/text.py”,
line 302, in texts_to_sequences_generator elif self.oov_token is not None: 
AttributeError: ‘Tokenizer’ object has no attribute ‘oov_token’

报错的代码行为

train_sequences = tokenizer.texts_to_sequences(new_training_list)

从texts_to_sequences()点进去keras的源码,发现它调用texts_to_sequences_generator()方法

而该方法里没有oov_token,后面有调用,但是没有设置

手动设置就ok

在texts_to_sequences_generator()方法里添加

tokenizer.ovv_token=None

OK.Fine

转载于:https://www.cnblogs.com/lyeeer/p/10337391.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值