- 博客(3)
- 收藏
- 关注
翻译 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova Google AI Language 语言模型预训练在很多NLP项目中都被证明有效。比如句子级别的任务如自然语言推理...
2019-07-10 15:15:18 700
翻译 Convolutional Neural Networks for Sentence Classification
Convolutional Neural Networks for Sentence Classification Yoon Kim New York University 模型结构 我们利用一层卷积神经网络和事先训练好的词向量进行句子分类,取得了很好的效果。而通过微调来学习针对特定任务的词向量提高了原有的效果。最后,我们描述了对模型结构的一个简单的改动,使得预训练和特定任务的词向量通过不同通道被...
2019-07-04 20:55:58 669
原创 python黑科技记录
给自己留档,记录一些方便的用法 fromkeys() 用来构建词典,输入一个list或tuple型的seq和一个value,输出就是以seq中各元素为键,以value为值的一个词典,多用于dict的初始化,例如: >>> a = [1,2,3,4] >>> b = {}.fromkeys(a) >>> b 得到结果: {1: None, 2:...
2019-07-02 17:51:47 248
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人