- 博客(2)
- 资源 (6)
- 收藏
- 关注
转载 [深度学习] 自然语言处理 --- Huggingface-Pytorch中文语言Bert模型预训练
CL2020 Best Paper有一篇论文提名奖,《Don’t Stop Pretraining: Adapt Language Models to Domains and Tasks》。这篇论文做了很多语言模型预训练的实验,系统的分析了语言模型预训练对子任务的效果提升情况。有几个主要结论: 在目标领域的数据集上继续预训练(DAPT)可以提升效果;目标领域的语料与RoBERTa的原始预训练语料越不相关,DAPT效果则提升更明显。 在具体任务的数据集上继续预训练(TAPT)可以十分“廉价”地
2020-07-23 11:55:45 15008 5
原创 [大数据]PySpark原理与基本操作
spark的flatMapflatMap,有着一对多的表现,输入一输出多。并且会将每一个输入对应的多个输出整合成一个大的集合,当然不用担心这个集合会超出内存的范围,因为spark会自觉地将过多的内容溢写到磁盘。当然如果对运行的机器的内存有着足够的信心,也可以将内容存储到内存中。spark的map用同样的方法来展示map操作,与flatMap不同的是,map通常是一对一,即输入一个,对应输出一个。但是输出的结果可以是一个元组,一个元组则可能包含多个数据,但是一个元组是一个整体,因此算是一个元素
2020-07-20 17:00:39 1886 2
distributed-deep-learning-with-horovod.pdf
2020-06-29
Neural Networks and Deep Learning - 神经网络与深度学习 中英双版本
2017-12-13
数据结构的大量程序 相关面试题的源代码!
2009-12-15
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人