Hugging Face - Transforms学习笔记
文章平均质量分 76
一个非NLP研究僧学习NLP的笔记,主要是使用Hugging Face公司的Transforms框架。
白羊007
这个作者很懒,什么都没留下…
展开
-
HuggingFace(二) | Transformers类模型的输入有哪些?
Glossary(术语)请确保你了解以下的术语,在这里会简单的介绍各个术语:自编码模型: see MLM; 自回归模型: see CLM; CLM: Causal Language Modeling. 标准语言模型,其训练task一般是从左往右对输入序列进行下一个token的预测; MLM: Masked Language Modeling. 掩码语言模型,其训练task一般通过对输入序列的token随机mask并进行预测; multimodal: 将文本与另一种输入(例如图像)结合在一起的原创 2021-03-09 19:24:44 · 683 阅读 · 0 评论 -
HuggingFace(一) | 一起玩预训练语言模型吧
Hugging Face的目标尽可能的让每个人简单,快速地使用最好的预训练语言模型; 希望每个人都能来对预训练语言模型进行研究。不管你使用Pytorch还是TensorFlow,都能在Hugging Face提供的资源中自如切换Hugging Face的主页Hugging Face – On a mission to solve NLP, one commit at a time.Hugging Face所有模型的地址https://huggingface.co/models你可原创 2021-03-09 19:14:32 · 2451 阅读 · 0 评论