CLIP安装避坑记录

前两周就想试一下CLIP的对比学习。先看了论文,零星准备环境,一直没有成功。虽然https://github.com/mlfoundations/open_clip。 官方网站上有比较详细的示例和README,无奈网络不太给力。国内网上的安装配置方法解决了一部分问题,最后付出了烧焦一顿饭的代价,把环境配置好。记录下来以防后用。 基础环境安装 我的电脑上有很多环境,为不影响其它正常环境,决定创建新的环境。从官网下载项目的安装包,使用pycharm中open project打开新项目。在File->Setting->Project名称下,打开Python Interpreter,创建一个本地的venv新环境。新环境base的python版本我是统一的python3.9。创建完成后只有3个文件。 在此基础上,开始安装所需要的基础内容:Cuda,Pytorch,以及与notebook共用的环境。

Pytorch+Cuda安装 由于经常安装环境,对于Pytorch+Cuda,我的使用的是下面的命令,并且我的机器上已经有缓存,安装起来很快。第一次安装,要很长的时间下载安装包。我的显卡是3080Ti,可以支持torch1.13.1+cu117。Pytorch的安装相比tensorflow麻烦很多,不同的版本对应不同的cuda,并且在pip源上还找不到安装包,需要在extra中下载。早先有些博文建议把后面extra去掉,也引起很多安装问题。有这个extra下载安装才正常。

pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu117

Notebook与Pycharm共享环境配置

1、切换到pycharm的venv所在的目录,Scripts\activate.bat

2、安装ipykernel: pip install ipykernel

3、将环境添加到 jupyter notebook 中: python -m ipykernel install --user --name=test

4、如需删除 kernel: jupyter kernelspec uninstall myenv

5、查看当前环境:jupyter kernelspec list 到此,基础环境配置就完成了。

CLIP环境安装 首先从github下载源码。将源码放在pycharm的项目目录下。在pycharm的terminal中,执行安装命令来安装依赖包。

pip install ftfy regex tqdm

这里是第一个坑。不能直接使用pip install clip来安装clip,需要使用下面方式来安装。

pip install git+https://github.com/openai/CLIP.git

接下来再安装ipywidgets依赖:

pip install ipywidgets
jupyter nbextension enable --py widgetsnbextension

到此为止,环境的安装就结束了。 在测试中,可以直接运行下面的测试代码。代码会自动下载所需的模型文件。这里也是个坑。按常理,由于国内网络问题,一般是先下载模型文件,再运行程序。找模型文件就费了功夫。这里可以直接下载,速度很快。

import torch
import clip
from PIL import Image

device = "cuda" if torch.cuda.is_available() else "cpu"
# model, preprocess = clip.load("ViT-B/32", device=device)
model, preprocess = clip.load("ViT-L/14", device=device)

image = preprocess(Image.open("dog.png")).unsqueeze(0).to(device)
text = clip.tokenize(["two dogs", "this is a dog", "two dogs on grass", "there are two dogs"]).to(device)
with torch.no_grad():
    image_features = model.encode_image(image)
    text_features = model.encode_text(text)

    logits_per_image, logits_per_text = model(image, text)
    probs = logits_per_image.softmax(dim=-1).cpu().numpy()

print("Label probs:", probs)

如果需要详细步骤,请参考超详细Pytorch环境配置及CLIP应用实例_pytorch clip_(^_^)那一年……的博客-CSDN博客

  • 3
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值