- 博客(2)
- 收藏
- 关注
原创 如何在linux远程服务器上直接下载huggingface官网的模型
在AI领域如nlp/cv等,做实验的时候经常会用到huggingface上各种开源的模型,同时也需要远程服务器(如实验室的服务器)的支持,才能有合适的算力并开展实验。本人目前也是nlp方向的新入门的小白,方法也都是网上查来的,浅浅记录一下在远程服务器上下载huggingface的模型和数据集的全过程。具体使用的是huggingface-cli,属于huggingface_hub库,这是HuggingFace官方提供的命令行工具,属于官方工具,那各方面的肯定很完善。下载模型,具体用法如下。
2024-07-20 15:42:34
352
原创 Linux远程服务器(实验室环境)非root用户安装conda
Linux服务器中,推荐每个用户拥有一个自己的conda环境,而不是多个用户共享一个conda。那么接下来进入正题。输入yes的话启动终端会自动激活conda(即出现base环境提示),之后重启终端即可使用conda。(3.4)输入自己想让这个conda放在的位置(或者直接Enter)使用wget命令下载anaconda,去。(3.1)找到刚刚下载的文件,进入到当前用户的家目录(~)找个喜欢的版本下载,命令如下。如果不行,试试加一点前缀。(3.2)按Enter。(3.3)输入yes。(3.5)输入yes。
2024-07-05 14:17:52
226
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人