Python安装llama库出错“metadata-generation-failed”

1. 安装llama库时出错

在这里插入图片描述

2. 定位问题

根据查到的资料,发现时llama包中的execfile函数已经被下线了,需要我们手动修改代码后,导入包

1. 去官网下载llama包

  • lib链接: link
    在这里插入图片描述
  • 下载.gz结尾的文件

在这里插入图片描述

2.修改配置文件

2.1 解压文件

解压llama-0.1.1.tar.gz 文件,并找到文件夹中的setup.py的文件
在这里插入图片描述

2.2 修改配置文件

在命令行进入到llama-0.1.1文件夹后,执行命令👇进入编辑模型

vi setup.py

execfile(‘llama/version.py’) 替换为 exec(open(‘llama/version.py’).read())

#!/usr/bin/env python

import os
from setuptools import find_packages, setup

exec(open('llama/version.py').read()) # 替换原先的 execfile('llama/version.py')

with open('requirements.txt') as fh:
    required = fh.read().splitlines()

setup(
    name='llama',
    version=str(__version__),
    description='LLAMA - Loss & LAtency MAtrix',
    url='https://github.com/dropbox/llama',
    author='Bryan Reed',
    maintainer='Daniel Martin',
    author_email='breed@dropbox.com',
    maintainer_email='dmar@dropbox.com',
    license='Apache',
    classifiers=[
        'Development Status :: 1 - Planning',
        'Intended Audience :: System Administrators',
        'License :: OSI Approved :: Apache Software License',
        'Operating System :: POSIX :: Linux',
        'Programming Language :: Python :: 2.7',
        'Topic :: System :: Networking :: Monitoring',
    ],
    keywords='llama udp loss latency matrix probe packet',
    scripts=['bin/llama_collector'],
    packages=find_packages(exclude=['docs', 'tests*']),
    include_package_data=True,
    zip_safe=False,
    install_requires=required,
)

按 ESC ,英文状态下👇:

:q! --保存退出

3. 本地安装文件

下列下面命令的含义是按照正在编辑的文件

pip install -e.

安装成功:

在这里插入图片描述

### 安装已下载的 LLaMA 模型或 对于已经在本地拥有 LLaMA 模型文件的情况,可以按照如下方式操作来加载模型: #### 使用 `llama-cpp-python` 加载本地模型 如果已经下载好了 GGUF 或其他支持格式的 LLaMA 模型文件,则可以通过指定路径的方式让 `llama-cpp-python` 来加载该模型。下面是一个简单的例子展示如何实现这一点。 ```python from llama_cpp import Llama # 初始化LLaMA实例并指向本地模型位置 llm = Llama(model_path="path/to/local/model.bin") # 测试生成一段文本 output = llm("Once upon a time", max_tokens=32) print(output) ``` 这里的 `"path/to/local/model.bin"` 需要替换为实际存储模型的位置[^1]。 #### 处理可能遇到的问题 当尝试安装 `llama-cpp-python` 时可能会碰到诸如 "metadata-generation-failed" 的错误消息。这通常是因为环境配置不当或是依赖项缺失所引起的。解决这类问题的方法之一是从官方源码仓克隆项目,并手动调整设置后再进行编译和安装[^3]。 另外,在某些情况下也可能因为网络原因无法直接通过 PyPI 获取最新版本;此时可以从 GitHub 上拉取最新的发布版或者开发分支来进行离线安装。 #### GPU加速选项 为了提高推理速度,还可以考虑启用GPU加速功能。具体做法是在初始化 `Llama` 类的时候传递额外参数以激活CUDA或其他形式的硬件加速[^2]。 ```python import torch from llama_cpp import Llama device = 'cuda' if torch.cuda.is_available() else 'cpu' llm = Llama( model_path="path/to/local/model.bin", n_gpu_layers=-1, # 将尽可能多的层放到GPU上处理 device=device # 设置使用的设备类型 ) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

柳小葱

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值