ollama导入自己微调后的模型胡言乱语

1.ollama导入自己微调后的模型胡言乱语

原因:Modelfile的模板格式不对,对的如下所示

##格式0

FROM tinyllama-my-model.gguf

### Set the system message
SYSTEM """
You are a super helpful helper.
"""

PARAMETER stop <s>
PARAMETER stop </s>

#格式0的运行方式:ollama run my-model "<s>\nQ: \nWhat is the capital of France?\nA:\n"
##格式1
FROM ./llama3-unsloth.Q8_0.gguf

TEMPLATE """{{- if .System }}
<|system|>
{{ .System }}
{{- end }}
<|user|>
{{ .Prompt }}
<|assistant|>
"""

SYSTEM """You are a helpful, smart, kind, and efficient AI assistant.Your name is Aila. You always fulfill the user's requests to the best of your ability."""


PARAMETER temperature 0.8
PARAMETER num_ctx 8192
PARAMETER stop "<|system|>"
PARAMETER stop "<|user|>"
PARAMETER stop "<|assistant|>"


##格式2
FROM GEITje-7B-chat-v2.gguf
TEMPLATE """{{- if .System }}
<|system|>
{{ .System }}
</s>
{{- end }}
<|user|>
{{ .Prompt }}
</s>
<|assistant|>
"""
PARAMETER temperature 0.2
PARAMETER num_ctx 8192
PARAMETER stop "<|system|>"
PARAMETER stop "<|user|>"
PARAMETER stop "<|assistant|>"
PARAMETER stop "</s>"
##格式3
FROM models/tinyllama-1.1b-chat-v0.3.Q6_K.gguf
PARAMETER temperature 0.7
PARAMETER stop "<|im_start|>"
PARAMETER stop "<|im_end|>"
TEMPLATE """
<|im_start|>system
{{ .System }}<|im_end|>
<|im_start|>user
{{ .Prompt }}<|im_end|>
<|im_start|>assistant
"""
SYSTEM """You are a helpful assistant."""
ollama create example -f Modelfile

ollama run example

 2.将safesensor转为gguf:

下载llama.cpp   

 https://github.com/ggerganov/llama.cpp
cd llama.cpp && make clean && make all -j
python convert.py /home/Ubuntu/phit/model-00001-of-00002.safetensors --outfile /home/Ubuntu/phit/your_output.gguf --pad-vocab

Import GGUF into Ollama

 微调Phi-3和Llama3!AutoGen实现Phi-3+Llama3多LLMs对话!打造自己的AI Agent!windows系统也支持_哔哩哔哩_bilibili

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
微调FinBERT模型需要进行以下步骤: 1. 数据准备:收集和准备用于微调的领域特定数据集。该数据集应包含文本和相应的情感标签或类别。您可以使用公开可用的情感分类数据集,或者自己创建一个数据集。 2. 模型选择:选择要微调的预训练的FinBERT模型。您可以从Hugging Face模型库中选择适合您任务的模型。 3. 数据预处理:将数据集转换为适合输入FinBERT模型的格式。这通常涉及将文本标记化,并将标签转换为数字编码。 4. 构建微调模型:根据任务需求,构建一个分类模型。通常,这涉及在FinBERT模型之上添加一个分类器层,并将其与预训练的权重一起微调。 5. 微调:使用准备好的数据集对模型进行训练。在微调过程中,您可以使用诸如学习率调整、批量大小和训练周期等技术来优化模型性能。 6. 模型评估:使用测试数据集评估微调后的模型性能。可以计算准确度、精确度、召回率、F1分数等指标来评估模型的效果。 7. 调整和优化:根据评估结果,可以调整微调模型的超参数或数据处理技术,以优化模型性能。 8. 部署:将微调后的模型部署到生产环境中,并进行实时预测或批量预测,以对新数据进行情感分类。 这些步骤是通用的微调流程,可以根据您的具体任务和数据集进行调整。请注意,微调需要大量的计算资源和时间,并且需要在合适的硬件环境中进行。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值