2024年最全HuggingFace入门教程--环境搭建_拥抱脸,2024年最新物联网嵌入式开发开发面试准备

收集整理了一份《2024年最新物联网嵌入式全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升的朋友。
img
img

如果你需要这些资料,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人

都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

2.1 安装python3-venv

创建虚拟环境需要使用python3-venv,我们先安装一下。

sudo apt install -y python3-venv

在这里插入图片描述
使用命令python -m venv命令新建一个虚拟环境。

python -m venv hug

上述命令新建了一个名为hug的虚拟环境,等右下角的新建进度条走完之后,你会在目录中看到hug文件夹,展开它进入bin目录,会发现在bin目录下有许多对虚拟环境操作的命令。
在这里插入图片描述
在这里插入图片描述2.2 激活虚拟环境。

目前我们已经新建了一个名为hug的虚拟环境,进入hug文件夹使用source命令激活hug虚拟环境,也可以使用source + activate所在路径的方式激活,请参照下图。

在这里插入图片描述

通过上述操作说明我们的虚拟环境已经建好了(截图中的字写错了,应该是激活虚拟环境)。

2.3 修改interpreter
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
通过上述操作我们就把新建项目的虚拟环境配置好了。

3.安装huggingface所需pip 包

由于pip默认从国外下载pip包,为了加速pip包的下载,我们需要将pip下载源更改为国内的。

修改pip.conf文件,如果没有就新建。

vim ~/.config/pip/pip.conf

添加以下内容。

[global]
index-url = https://pypi.tuna.tsinghua.edu.cn/simple

extra-index-url=
        http://mirrors.aliyun.com/pypi/simple/
        http://pypi.douban.com/simple
        http://pypi.mirrors.ustc.edu.cn/simple/

[install]
trusted-host=
        pypi.tuna.tsinghua.edu.cn
        mirrors.aliyun.com
        pypi.douban.com
        pypi.mirrors.ustc.edu.cn
        download.openmmlab.com

在这里插入图片描述
安装huggingface所需pip包。

pip install datasets evaluate transformers[sentencepiece]
pip install torch pipeline

收集整理了一份《2024年最新物联网嵌入式全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升的朋友。
img
img

如果你需要这些资料,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人

都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

**

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人

都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

你好!关于huggingface的使用教程,我可以给你一些指导。首先,huggingface是一个提供自然语言处理(NLP)模型和工具的开源库。它包含了许多预训练的模型,可以用于文本生成、文本分类、命名实体识别等任务。 下面是一个简单的教程,帮助你开始使用huggingface: 1. 安装huggingface库:你可以使用pip命令安装huggingface库,运行以下命令: ``` pip install transformers ``` 2. 导入所需的模型和工具:根据你的任务需求,导入相应的模型和工具。例如,如果你想使用GPT模型进行文本生成,可以运行以下代码: ```python from transformers import GPT2LMHeadModel, GPT2Tokenizer # 加载GPT模型和分词器 model = GPT2LMHeadModel.from_pretrained('gpt2') tokenizer = GPT2Tokenizer.from_pretrained('gpt2') ``` 3. 处理输入数据:使用分词器对输入进行分词和编码。例如,如果你想生成一段文本,可以运行以下代码: ```python input_text = "你要生成的文本" # 对输入进行分词和编码 input_ids = tokenizer.encode(input_text, return_tensors='pt') ``` 4. 生成输出:使用加载的模型对输入进行预测并生成输出。例如,对于文本生成任务,可以运行以下代码: ```python # 使用模型生成输出 output = model.generate(input_ids, max_length=100) # 解码输出文本 output_text = tokenizer.decode(output[0], skip_special_tokens=True) print(output_text) ``` 以上是一个简单的huggingface使用教程,希望可以帮助到你入门。如果你想了解更多关于huggingface的功能和用法,可以参考官方文档和示例代码。祝你使用huggingface愉快!如果你还有其他问题,欢迎继续提问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值