最近看到一篇关于Transformer模型的论文,谷歌推出的BERT模型在11项NLP(natural language processing)任务中夺得SOTA结果,引爆了整个NLP界。而Transformer是BERT取得成功的一个关键因素。谷歌的Transformer模型最早用于机器翻译任务,当时达到了SOTA效果。
那么文中的SOTA效果,SOTA结果是什么意思呢?
这里就来简单介绍一下定义:
SOTA是State-Of-The-Art的首字母缩写,翻译为体现最高水平的。
SOTA 模型:State-Of-The-Art 模型,是指在该项研究任务中,对比该领域的其他模型,这个是目前最好/最先进的模型。
SOTA 结果:State-Of-The-Art 结果,一般是说在该领域的研究任务中,此论文的结果对比已经存在的模型及实现结果,此论文的模型具有最好的性能/结果。