Ch5. Example 5-2 Continuous Bag of Words

embedding size对训练结果影响较大,嵌入层越大,准确率越高

自己改进的代码和范本代码似乎总有差异,还需要细查。

本例只有一个字典,即context_vocab,意味着训练样本和目标共享一个字典,而前三个案例针对样本和目标分别建立了字典。

在Dataset初始化时,有两行新代码值得注意,它巧妙的利用了匿名函数lambda和映射函数map来求出语料中语句的最长长度。

# Very smart. Use map func to measure the length of every sentence
# in the dataframe table. Then use max to return the max one.
measure_len = lambda context: len(context.split(" "))
self._max_seq_length=max(map(measure_len,cbow_df.context))

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值