llamafactory-cli api方法

from openai import OpenAI

# autodl 中指令

#  # Set OpenAI's API key and API base to use vLLM's API server.
openai_api_key = "EMPTY"
openai_api_base = "http://localhost:8000/v1"

client = OpenAI(
    api_key=openai_api_key,
    base_url=openai_api_base,
)
zly='[QUESTION]总是为别人找想,总是在友情中卑微?[DESCRIPTION]我总是在友谊中很卑微,[LABEL]人际,朋友,人际边界'
chat_response = client.chat.completions.create(
    model="/media/ldx/的机械硬盘/models/Llama3-8B-Chinese-Chat-lzy-all-nn",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": zly},
    ]
)
print("Chat response:", chat_response.choices)

#环境lora
#微调代码,启动服务器
#CUDA_VISIBLE_DEVICES=0 API_PORT=8000 llamafactory-cli api --model_name_or_path /media/ldx/的机械硬盘/models/Llama3-8B-Chinese-Chat-cq --template llama3 --infer_backend vllm --vllm_enforce_eager
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值