llama.cpp-MiniCPM-V-2.6-IDE调试

最近在看llama.cpp项目里的MiniCPM-V,原来项目中都是终端启动的,不方便魔改。于是根据模型demo文件写了一个调试代码,在debug的过程中,看数据加载过程,学习模型结构。

新建一个python文件运行,自己改一下路径。

import torch
from PIL import Image
from transformers import AutoModel,AutoTokenizer
from modeling_minicpmv import MiniCPMV
#模型来源于https://huggingface.co/openbmb/MiniCPM-V-2_6,在代码里调用hugging预训练模型总是报错,所以每次一般都直接下载到服务器上,比较方便。

model_name_or_path = '/home/XXX/llama.cpp/MiniCPM-V-2_6'

model = MiniCPMV.from_pretrained(
    pretrained_model_name_or_path = model_name_or_path,
    trust_remote_code = True,
    attn_implementation = 'sdpa',
    torch_dtype = torch.bfloat16,
)
model = model.eval().cuda()
tokenizer = AutoTokenizer.from_pretrained(pretrained_model_name_or_path=model_name_or_path,trust_remote_code = True)
image = Image.open('/home/XXX/llama.cpp/MiniCPM-V-2_6/assets/radar_final.png').convert('RGB')
question = 'Describe this image'
msgs = [{'role': 'user', 'content': [image, question]}]

prompt = model.chat(
    image=None,
    msgs=msgs,
    tokenizer=tokenizer
)
print(prompt)

过程中打断点看image tokens,模型层,加载过程等,主要文件modeling_minicpmv.py。 

这里用的是示例图片,最终结果如下:

  

根据提供的引用信息,你遇到的问题是在编译过程中出现了错误。具体来说,错误信息是"\k_quants.h(145): error C2059: 语法错误:“)”"。根据提供的引用,这个错误可能是在编译GPU版本的llama.cpp文件时出现的,并且与选项'gpu-architecture'的值为'native'有关。 解决这个问题的步骤如下: 1. 首先,查看编译错误的具体位置,即\k_quants.h文件的第145行。 2. 在该行附近检查代码,查找是否有语法错误,例如缺少分号或括号不匹配等。 3. 如果代码没有明显的语法错误,可以考虑检查编译选项和环境设置是否正确。特别是关于选项'gpu-architecture'的值,确保它被正确定义和使用。 4. 如果是Makefile文件导致的问题,则需要修改Makefile源码,确保编译选项被正确设置。 5. 重新编译代码并进行测试,确保问题已经解决。 请注意,以上步骤仅供参考,具体解决方法可能因个人环境和代码情况而异。建议仔细检查错误信息和相关代码,结合实际情况采取相应的解决措施。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [【AI实战】llama.cpp量化cuBLAS编译;nvcc fatal:Value ‘native‘ is not defined for option ‘gpu-...](https://blog.csdn.net/zengNLP/article/details/131576986)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [ubuntu下编译时遇到的错误及解决方式](https://blog.csdn.net/weixin_30267691/article/details/94986381)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值