论文翻译
文章平均质量分 85
12Struggle
这个作者很懒,什么都没留下…
展开
-
【计算机领域中文论文写作不成文的规定】
或加上简写修改为(Pe-trained Language Models,PLMs)。若加上简写后,下文关于“预训练语言模型”全部改为PLMs。后续遇到会继续补充,还有其他遗漏,也可以评论补充,希望大家一起共勉。原创 2023-08-09 14:03:38 · 423 阅读 · 0 评论 -
FairLex A Multilingual Benchmark for Evaluating Fairness in Legal Text Processing
FairLex: A Multilingual Benchmark for Evaluating Fairness in Legal Text ProcessingFairLex:一个评估法律文本处理中的公平性的多语言基准作者:Ilias Chalkidis ;Tommaso Pasini ;Sheng Zhang ;Letizia Tomada ;Sebastian Felix Schwemer ;Anders SøgaardAbstract提供了一套由四个数据集组成的基准测试集,用于评估预先训原创 2022-05-09 23:17:43 · 632 阅读 · 0 评论 -
word2vec
Efficient Estimation of Word Representations in Vector Space【word2vec】作者:Tomas Mikolov;Kai Chen;Greg Corrado;Jeffrey Dean;Abstract我们提出了两个新的模型体系结构来计算单词的连续向量表示从非常大的数据集。 在单词相似度任务中测量这些表示的质量,并将结果与之前基于不同类型神经网络的最佳表现技术进行比较。 我们观察到,在更低的计算成本下,准确性有了很大的提高,即从16亿单词数据集原创 2022-04-09 17:44:49 · 969 阅读 · 0 评论 -
CogLTX Applying BERT to Long Texts
CogLTX: Applying BERT to Long TextsMing Ding, Chang Zhou, Hongxia Yang, and Jie Tang. 2020. CogLTX: Applying BERT to Long Texts. InAdvances in Neural Information Processing Systems, Vol. 33.12792–12804Abstract由于二次增加的内存和时间消耗,BERT无法处理长文本。解决这个问题的最自然的方法,如通原创 2022-04-09 17:40:40 · 1666 阅读 · 0 评论