【ollama3.1】ollama运行本地的模型文件.safetensors格式

下载最新3.1模型

git clone https://www.modelscope.cn/LLM-Research/Meta-Llama-3.1-8B-Instruct.git

进入ollama的安装目录:D:\peft\ollama

新建立:lama31.txt文件


FROM D:\LLaMA-Factory\Meta-Llama-3.1-8B-Instruct
TEMPLATE "{{ if .System }}<|start_header_id|>system<|end_header_id|>

{{ .System }}<|eot_id|>{{ end }}{{ if .Prompt }}<|start_header_id|>user<|end_header_id|>

{{ .Prompt }}<|eot_id|>{{ end }}<|start_header_id|>assistant<|end_header_id|>

{{ .Response }}<|eot_id|>"
PARAMETER stop <|start_header_id|>
PARAMETER stop <|end_header_id|>
PARAMETER stop <|eot_id|>
PARAMETER num_keep 24
 

ollama create llama3.1 -f lama31.txt

Error: json: cannot unmarshal array into Go struct field Params.eos_token_id of type int

### 如何在 Ollama 环境中加载和运行 SafeTensors 文件 为了在 Ollama 环境中成功加载并运行 `.safetensors` 格式模型文件,需遵循特定的操作流程。 #### 准备工作环境 确保已安装最新版本的 Ollama 并配置好开发环境。对于具体路径设置,假设模型存储于 `D:\LLaMA-Factory\Meta-Llama-3.1-8B-Instruct` 下,则该目录应包含目标 `.safetensors` 文件[^2]。 #### 加载模型命令结构 使用 `ollama run` 命令来启动指定的模型实例。当处理 `.safetensors` 文件时,命令格式如下: ```bash ollama run path_to_model_file:safetensors_tag prompt --option ``` 其中: - `path_to_model_file` 是指向 `.safetensors` 文件的具体位置; - `safetensors_tag` 表明这是个 safetensor 类型标签; - `prompt` 代表要传递给模型的任务指令字符串; - `--option` 可选参数用于控制执行行为,比如增加日志输出等级等选项。 #### 实际操作案例 基于提供的信息,在实际应用中可以通过下面这条命令行语句实现对名为 `hermes-2-pro-llama-3-8b.q4_0.safetensors` 的模型提问“为什么天空是蓝色”的过程[^1]: ```bash ollama run D:\LLaMA-Factory\Meta-Llama-3.1-8B-Instruct\hermes-2-pro-llama-3-8b.q4_0:safetensors "tell me why sky is blue" --verbose ``` 此命令将会读取位于 `D:\LLaMA-Factory\Meta-Llama-3.1-8B-Instruct` 路径下的 `hermes-2-pro-llama-3-8b.q4_0.safetensors` 文件作为输入模型,并向其发送询问关于天蓝原因的问题,同时开启详细的调试信息显示模式以便观察整个交互过程。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值