翻译
文章平均质量分 88
芝士AI吃鱼
梦想很美好,一直很向往
代码很纯粹,一直在追求
展开
-
抱抱脸(hugging face)教程-中文翻译-翻译任务(translating)
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar翻译 2022-07-09 16:02:42 · 1673 阅读 · 0 评论 -
抱抱脸(hugging face)教程-中文翻译-QA问答(Question Answering)
问题回答任务返回给定问题的答案。有两种常见的问题回答形式:本指南将向您展示如何对 SQuAD 数据集上的 DistilBERT 进行微调,以便进行提取问题回答。有关其他形式的问题回答及其相关模型、数据集和指标的更多信息,请参见问题回答任务页。从 Datasets 库加载 SQUAD 数据集:然后看一个例子:答案字段是一个字典,包含答案的起始位置和答案的文本。加载 DistilBERT 标记器以处理问题和上下文字段:有几个预处理步骤,特别是问题的回答,你应该知道:下面是如何创建一个函数来截断和映射答案的翻译 2022-07-09 15:51:05 · 1115 阅读 · 0 评论 -
抱抱脸(hugging face)教程-中文翻译-文本分类
文本分类是一个常见的自然语言处理任务,它为文本分配一个标签或类。有许多实际应用的文本分类广泛应用于生产的一些今天的最大的公司。最流行的文本分类形式之一是情感分析,它为一系列文本分配一个标签,如正面、负面或中性。本指南将向您展示如何对 IMDb 数据集上的 DistilBERT 进行微调,以确定电影评论是正面的还是负面的。从 Datasets 库加载 IMDb 数据集:然后看一个例子:这个数据集中有两个字段:加载 DistilBERT 标记器以处理文本字段:创建一个预处理函数来标记文本并截断不超过 Disti翻译 2022-07-09 15:31:59 · 710 阅读 · 0 评论 -
抱抱脸(hugging face)教程-中文翻译-共享定制模型
共享定制模型Transformers库的设计很容易扩展。每个模型都完整地编码在存储库的给定子文件夹中,没有任何抽象,因此您可以轻松地复制建模文件并根据需要对其进行调整。如果您正在编写一个全新的模型,那么从头开始可能会更容易。在本教程中,我们将向您展示如何编写一个自定义模型及其配置,以便它可以在 Transformers 内部使用,以及如何与社区共享它(通过它所依赖的代码) ,以便任何人都可以使用它,即使它不在 Transformers 库中。我们将通过将 timm 库的 ResNet 类包装到 Pre翻译 2022-03-29 15:20:25 · 5160 阅读 · 0 评论 -
抱抱脸(hugging face)教程-中文翻译-创建一个自定义架构
创建一个自定义架构AutoClass 自动推导模型架构,并下载预先训练的配置和权重。通常,我们建议使用 AutoClass 生成与检查点无关的代码。但是,想要更多地控制特定模型参数的用户可以从几个基类创建自定义的 Transformers 模型。对于那些对研究、训练或试验变形金刚模型感兴趣的人来说,这本书特别有用本指南深入探讨如何在没有 AutoClass 的情况下创建自定义模型如何:加载并自定义模型配置。创建一个模型架构为文本创建一个缓慢和快速的标记器。为音频或图像任务创建一个特征提取器。为翻译 2022-03-29 15:10:09 · 3056 阅读 · 0 评论 -
抱抱脸(hugging face)教程-中文翻译-使用 Tokenizers 的 tokenizers
使用 Tokenizers 的 tokenizersPreTrainedTokenizerFast 依赖于 Tokenizers 库。从 Tokenizers 库获得的tokenizers可以非常简单地加载到Transformers。在详细讨论之前,让我们先用几行代码创建一个虚拟的tokenizer:from tokenizers import Tokenizerfrom tokenizers.models import BPEfrom tokenizers.trainers import Bpe翻译 2022-03-29 14:34:32 · 2242 阅读 · 0 评论 -
抱抱脸(hugging face)教程-中文翻译-分享一个模型
分享一个模型最后两个教程展示了如何使用 PyTorch、 Keras 和 Accelerate 优化分布式设置的模型。下一步就是把你的模型公之于众!我们相信公开分享知识和资源,使人工智能大众化。我们鼓励你考虑与社区分享你的模式,以帮助其他人节省时间和资源。在本教程中,您将学习在 Model Hub 上共享经过训练或调优的模型的两种方法:以编程方式将文件推送到Hub。通过 web 界面将文件拖放到 Hub。要与社区共享一个模型,您需要在 huggingface.co 上注册一个帐户。您还可以加翻译 2022-03-29 14:26:40 · 7168 阅读 · 0 评论 -
抱抱脸(hugging face)教程-中文翻译-对预先训练过的模特进行微调
对预先训练过的模特进行微调使用预先训练过的模型有很大的好处。它降低了计算成本,你的碳足印,并允许你使用最先进的模型,而不必从头开始训练一个。Transformer提供了数以千计的预先训练的模型,广泛的任务。当你使用一个预先训练好的模型时,你会在一个特定于你任务的数据集上训练它。他的作品被称为微调,一种非常强大的训练技巧。在本教程中,您将使用自己选择的深度学习框架对一个预先训练好的模型进行微调:微调一个预先训练的模式与变形金刚训练机。用 Keras 微调 TensorFlow 中的预训练模型。在本地翻译 2022-03-25 16:43:40 · 3543 阅读 · 0 评论 -
抱抱脸(hugging face)教程-中文翻译-模型概要
模型概要这是一个总结的模型可在Transformers。假设您熟悉最初的Transformers模型。或者温柔的介绍,看看有注释的Transformers。在我们关注模特之间的高度差异之前。你可以在他们各自的文件中,更详细地检查他们。查看 Model Hub,在这里可以根据模型体系结构查看checkpoints。Each one of the models in the library falls into one of the following categories:library 的每一个模型翻译 2022-03-25 16:33:45 · 3329 阅读 · 0 评论 -
抱抱脸(hugging face)教程-中文翻译-预处理
预处理在您可以在模型中使用数据之前,需要将数据处理为模型可接受的格式。模型不理解原始文本、图像或音频。这些输入需要转换成数字并组装成张量。在本教程中,您将:用tokenizer处理文本.用特征提取器对图像或音频数据进行预处理。使用处理器预处理多通道任务的数据。自然语言处理处理文本数据的主要工具是tokenizer。tokenizer首先根据一组规则将文本分割为tokens。令牌被转换成数字,用于构建张量作为模型的输入。模型所需的任何额外输入也由tokenizer添加。如果您计划使用预先训练翻译 2022-03-25 15:45:08 · 2711 阅读 · 0 评论 -
抱抱脸(hugging face)教程-中文翻译-任务总结
任务总结任务摘要此页面显示了使用库时最常见的用例。可用的模型允许许多不同的配置,并且在用例中有很大的通用性。这里展示了最简单的方法,展示了问题回答、序列分类、命名实体识别等任务的用法。这些示例利用 auto-models,这些类将根据给定的检查点实例化一个模型,并自动选择正确的模型体系结构。有关更多信息,请查看 AutoModel 文档。您可以随意修改代码,使其更加具体,并根据您的具体用例对其进行调整。为了使模型能够很好地执行任务,必须从与该任务相对应的检查点加载模型。这些检查点通常是针对大量数据翻译 2022-03-24 19:53:27 · 2388 阅读 · 0 评论 -
抱抱脸(hugging face)教程-中文翻译-使用 AutoClass 加载预训练的实例
使用 AutoClass 加载预训练的实例由于有这么多不同的 Transformer 体系结构,为您的 checkpoint 创建一个 Transformer 体系结构是一项挑战。作为 Transformers core 哲学的一部分,AutoClass 可以从给定的checkout自动推断和加载正确的体系结构,从而使库容易、简单和灵活地使用。来自 pretrained method 的他可以让你快速为任何架构装载一个预先训练好的模型,这样你就不必投入时间和资源从头开始训练一个模型。这种类型的check翻译 2022-03-24 19:38:29 · 1536 阅读 · 0 评论 -
抱抱脸(hugging face)教程-中文翻译-基于pipeline的推理
基于pipeline的推理Pipeline ()使得使用 Model Hub 中的任何模型来推断各种任务变得非常简单,比如文本生成、图像分割和音频分类。即使您没有特定模式的经验或者不了解支持模型的代码,您仍然可以将它们与pipeline一起使用() !本教程将教你:使用 pipeline ()进行推理。使用特定的标记器或模型。使用pipeline()执行音频和视觉任务。查看pipeline()文档,以获得所支持的 taska 的完整列表。pipeline的使用虽然每个任务都有一个关联的p翻译 2022-03-24 19:30:17 · 1197 阅读 · 0 评论 -
翻译-A (Long) Peek into Reinforcement Learning
A (Long) Peek into Reinforcement Learning强化学习之一瞥In this post, we are gonna briefly go over the field of Reinforcement Learning (RL), from fundamental concepts to classic algorithms. Hopefully, thi...翻译 2020-02-12 13:08:13 · 303 阅读 · 0 评论