(超详细教程)没有sudo权限,在服务器安装ollama,下载qwen2模型,python代码测试

1、创建一个文件夹放ollama

#创建文件夹
mkdir ollama
#进入该文件夹
cd ollama

2、下载安装包

2.1命令行下载压缩包

#下载安装包
wget -O ollama-linux-amd64.tgz https://ollama.com/download/ollama-linux-amd64.tgz

如果一直连接不上github,像下面图片中一样,那就换一种方法,用xftp本地上传这个压缩包。如果这步可以下载,那就直接跳到下面第3步解压。

2.2本地上传压缩包

先去ollama官网下载压缩包到自己电脑上,然后在Xftp新建会话,把刚刚下载的压缩包传到ollama文件夹下(由于我在第一步创建的ollama1,所以我上传到ollama1文件夹下)

传完是这样的

3、解压缩

#解压缩
tar -xvzf ollama-linux-amd64.tgz

压缩后在ollama文件夹下是这样的

进入bin文件夹,ls查看,会有一个ollama的文件

4、启动ollama

4.1没有设置环境变量启动ollama

如果在没有设置环境变量的情况下,必须在bin文件夹下启动

#启动ollama,必须用./xxx
./ollama serve

这样就启动成功了​​​​​​​

再新建一个终端,进入bin文件夹,运行以下命令查看ollama的版本

#查看ollama版本
./ollama -v

4.2设置环境变量

启动ollama,设置环境变量后,就可以在任意一个文件夹下启动ollama了,以下有两种设置环境变量的方法,推荐永久设置的方法

设置临时环境变量:直接输入以下命令

(这个地址要替换为自己的地址,在bin文件夹下输入pwd可以查看地址,如下边第二张图)

#设置临时环境变量
export PATH=$PATH:/home/wangjunjun/ollama/bin
#查看当前文件地址
pwd

设置永久环境变量:以下nano ~/.bashrc命令打开编辑环境变量的窗口

#编辑环境变量
nano ~/.bashrc

在最下边添加环境变量

export OLLAMA_HOME=改为自己的地址
export PATH=$PATH:$OLLAMA_HOME

然后进行以下操作保存并退出  ctrl+O    Enter   ctrl+X

执行以下指令使环境变量生效

source ~/.bashrc

4.3设置完环境变量启动ollama

设置了环境变量就可以在任意文件夹下直接ollama serve 启动了

ollama serve

查看版本

ollama -v

5、下载模型

进入ollama官网,选择模型

比如我想下载qwen2-7b的模型,有环境变量的情况下直接复制箭头所指命令,运行,没有环境变量的情况下用./+复制的内容

#设置环境变量
ollama run qwen2
#没有设置环境变量
./ollama run qwen2

然后就开始下载模型了,下载好后可以直接跟模型进行对话,ctrl+d结果对话。

还可以用ollama list查看已经下载的模型列表

#设置环境变量
ollama list
#没有设置环境变量
./ollama list

6、python代码测试

把模型替换为自己的可以成功运行

import ollama

# 生成回答并逐字符打印
stream = ollama.chat(
    model='qwen2',
    messages=[{'role': 'user', 'content': '天为什么是绿的'}],
    stream=True,
)

for chunk in stream:
    print(chunk['message']['content'], end='', flush=True)


def test_ollama_chat():
    # Test case 1: Test with a simple question
    messages1 = [{'role': 'user', 'content': '天为什么是绿的'}]
    stream1 = ollama.chat(model='llama3.1', messages=messages1, stream=True)
    response_content = ""
    for chunk in stream1:
        response_content += chunk['message']['content']
    # 检查回答是否合理
    assert "绿色" in response_content or "为什么" in response_content
    print("All test cases pass")


test_ollama_chat()

评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值