huggingface笔记
文章平均质量分 95
一些读书期间学习huggingface库笔记,现在可以去参考最新的~~~
名字填充中
这个作者很懒,什么都没留下…
展开
-
深入Bert实战(Pytorch)----WordPiece Embeddings
@[TOC](深入Bert实战(Pytorch)----WordPiece Embeddings)https://www.bilibili.com/video/BV1K5411t7MD?p=5https://www.youtube.com/channel/UCoRX98PLOsaN8PtekB9kWrw/videos深入BERT实战(PyTorch) by ChrisMcCormickAI这是ChrisMcCormickAI在油管bert,8集系列第二篇WordPiece Embeddings的p翻译 2021-01-22 15:40:44 · 2736 阅读 · 0 评论 -
Transformers库Question Answering任务样例
Transformers库Question Answering任务样例transformer库问答任务的样例,可以直接在colab运行,我这些做学习笔记来大致翻译一下。可以在这里找到Hugging Face提供的各种样例。这里是colab的地址,需要翻。文章目录Transformers库Question Answering任务样例前言一、在QA任务中的BERT微调加载数据集数据预处理长文本处理二、使用步骤1.引入库2.读入数据总结前言这是我自己的学习笔记,我也是刚开始学习,会有不少错误,谨慎参原创 2021-02-21 23:36:03 · 4271 阅读 · 4 评论 -
深入Bert实战(Pytorch)----问答 fine-Tuning
https://www.bilibili.com/video/BV1K5411t7MD?p=5https://www.youtube.com/channel/UCoRX98PLOsaN8PtekB9kWrw/videos深入BERT实战(PyTorch) by ChrisMcCormickAI这是ChrisMcCormickAI在油管BERT的Question Answering with a Fine-Tuned BERT的讲解的代码,在油管视频下有cloab地址,如果不能翻墙的可以留下邮箱我全部.翻译 2021-02-02 22:52:02 · 4660 阅读 · 0 评论 -
HuggingFace Datasets来写一个数据加载脚本
HuggingFace Datasets上传本地文件作为训练数据这两天用自己的数据来做训练,看到datasets库中的教程,进行翻译,记下如何使用本地/私有数据集。文章目录HuggingFace Datasets上传本地文件作为训练数据前言编写数据集加载脚本(Writing a dataset loading script)添加数据集元数据(Adding dataset metadata)下载数据文件并组织拆分(Downloading data files and organizing splits)在原创 2021-03-02 21:24:20 · 16501 阅读 · 18 评论 -
深入Bert实战(Pytorch)----fine-Tuning 1
深入Bert实战(Pytorch)----fine-Tuning 1https://www.bilibili.com/video/BV1K5411t7MD?p=5https://www.youtube.com/channel/UCoRX98PLOsaN8PtekB9kWrw/videos深入BERT实战(PyTorch) by ChrisMcCormickAI这是ChrisMcCormickAI在油管bert,8集系列第三篇fine-Tuning的pytorch的讲解的代码,在油管视频下有cloa翻译 2021-01-23 17:12:53 · 2490 阅读 · 5 评论 -
深入Bert实战(Pytorch)----fine-Tuning 2
深入Bert实战(Pytorch)----fine-Tuning 2https://www.bilibili.com/video/BV1K5411t7MD?p=5https文章目录深入Bert实战(Pytorch)----fine-Tuning 2前言4. Train Our Classification Model4.1. BertForSequenceClassification4.2. Optimizer & Learning Rate Scheduler4.3. 循环训练5. 在测试集翻译 2021-01-25 20:19:00 · 3436 阅读 · 5 评论 -
Fine-tuning一个语言模型
Fine-tuning一个语言模型原文地址我找不到了。。。。还是transformer上面的一个教程文章目录Fine-tuning一个语言模型准备数据因果语言模型(CLM)掩码语言模型(MLM)总结在???? Transformers 上微调一个语言模型任务,有两种类型的语言模型任务Causal language modeling(因果语言模型):这个语言模型会预测在这句话的下一个单词(标签与向右移动的输入相同)。为了防止模型作弊,在预测第i+1个单词时,会mask第i个后面的单词。[外链图翻译 2021-03-11 21:07:07 · 1641 阅读 · 0 评论 -
如何使用Transformers和Tokenizers从头开始训练新的语言模型
文章目录前言1. 下载数据集2.训练一个分词器(tokenizer)3. 从零开始训练语言模型定义这个模型的配置文件建立训练数据集检查LM是否受过训练总结huggingface教程,原文博客地址,cloab地址前言在过去的几个月,我们对transformers库和 tokenizers库进行了一些改进,目标是使得从头开始训练新的语言模型变得容易。在这个demo里,展示了怎么在Esperanto训练一个"small"模型((84 M parameters = 6 layers, 768 hidden翻译 2021-03-09 09:44:48 · 7436 阅读 · 2 评论