AI大眼萌探索 AI 新世界:Ollama 使用指南【1】

在人工智能的浪潮中,Ollama 的出现无疑为 Windows 用户带来了一场革命。这款工具平台以其开创性的功能,简化了 AI 模型的开发与应用,让每一位爱好者都能轻松驾驭 AI 的强大力量。大家好,我是AI大眼萌,今天我们将带大家了解这款工具平台。

🤖 什么是 Ollama?

Ollama 不仅仅是一个 AI 和 ML (Machine Learning)工具平台,它是技术社区中的一股清流,以其直观高效的工具,让 AI 模型的开发变得触手可及。无论是资深专家还是新手,都能在 Ollama 上找到自己的舞台。

🌟Ollama优势

在 AI 工具的海洋中,Ollama 以其独特优势脱颖而出:

  • 🔧 自动硬件加速:智能识别并利用最优硬件资源,简化配置,提升效率。
  • 🚫 无需虚拟化:告别复杂环境配置,直接投身于 AI 项目的开发。
  • 📚 接入丰富模型库:从 Lamma3到 qwen2,Ollama 的模型库应有尽有。
  • 🔗 Ollama 的常驻 API:简化 AI 功能与项目对接,提升工作效率。

🛠️ Ollama Windows使用指南

下面是如何在 Windows 上使用 Ollama 的详细指南:

步骤 1:下载与安装

步骤 2:启动与模型获取

  • 启动 Ollama

    Usage:
      ollama [flags]
      ollama [command]
    Available Commands:
      serve       Start ollama
      create      Create a model from a Modelfile
      show        Show information for a model
      run         Run a model
      pull        Pull a model from a registry
      push        Push a model to a registry
      list        List models
      ps          List running models
      cp          Copy a model
      rm          Remove a model
      help        Help about any command
    
    启动ollama服务:   ollama serve
    
  • 使用命令行加载模型,开始你的 AI 之旅。

    ollama run [modelname]
    ollama run gemma:2b
    

    在这里插入图片描述

执行以上命令后,Ollama 将开始初始化,并自动从 Ollama 模型库中拉取并加载所选模型。一旦准备就绪,就可以向它发送指令,它会利用所选模型来进行理解和回应。

在这里插入图片描述

  • 记得将modelname名称换成要运行的模型名称,常用的有:
ModelParametersSizeDownload
Qwen2 7B7B4.5Gollama run qwen:7b
Qwen2 72B72B41Gollama run qwen:72b
Llama 38B4.7GBollama run llama3
Llama 370B40GBollama run llama3:70b
Phi 3 Mini3.8B2.3GBollama run phi3
Phi 3 Medium14B7.9GBollama run phi3:medium
Gemma2B1.4GBollama run gemma:2b
Gemma7B4.8GBollama run gemma:7b
Mistral7B4.1GBollama run mistral
Moondream 21.4B829MBollama run moondream
Neural Chat7B4.1GBollama run neural-chat
Starling7B4.1GBollama run starling-lm
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
LLaVA7B4.5GBollama run llava
Solar10.7B6.1GBollama run solar

模型存储在哪里?如需更换地点,可以参考环境配置章节

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models
  • Windows: C:\Users\%username%\.ollama\models

步骤 3:模型应用

在这里插入图片描述

步骤 4:API 连接

将 AI 功能整合到你的应用中,Ollama API 是关键。

默认端口为11434

在这里插入图片描述

Ollama Linux 使用指南

步骤 1:下载与安装

curl -fsSL https://ollama.com/install.sh | sh

在这里插入图片描述

步骤 2:启动与模型获取

ollama serve
ollama run [modelname]

在这里插入图片描述

步骤 3与4: 与之前一致。

Ollama 环境变量设置

在Linux上设置环境变量

如果Ollama作为systemd服务运行,通过systemctl设置环境变量:

  1. 使用systemctl edit ollama.service命令编辑systemd服务,将打开一个编辑器。

  2. 对每个环境变量,在[Service]部分添加一行Environment:

  3. [Service]

    Environment="OLLAMA_HOST=:8000" #要更改侦听地址和端口,可以环境变量:

  4. 保存并退出。

  5. 重新加载systemd并重启Ollama:

systemctl daemon-reload
systemctl restart ollama

在Windows上设置环境变量

在Windows上,Ollama会继承您的用户和系统环境变量。

1. 首先通过任务栏图标退出Ollama,
2. 从控制面板编辑系统环境变量,
3. 为OLLAMA_HOST、OLLAMA_MODELS等编辑或新建变量。
    a、要更改侦听地址和端口,可以添加以下环境变量:
        变量名:OLLAMA_HOST
        变量值(端口)::8000
    b、要更为debug模式,可以添加以下环境变量:
        变量名:OLLAMA_DEBUG
    	变量值(端口):1  
    c、模型存储位置要更为指定路径
        变量名:OLLAMA_MODELS
        变量值(端口):指定的路径 
4. 点击OK/Apply保存,

使用代理服务器访问Ollama?

Ollama运行一个HTTP服务器,可以通过代理服务器,比如Nginx,进行公开。具体操作方法是配置代理转发请求,并可选设置所需的头部(如果不在网络上公开Ollama)。例如,使用Nginx配置如下:

  server {
		listen 80;
		server_name 192.168.70.1;  
		location / {
			proxy_pass http://localhost:11434;
			proxy_set_header Host localhost:11434;
		}
	}

使用python调用ollama

1、安装依赖库

pip install ollama langchain_community langchain  

2、测试代码

import ollama 
response =ollama.chat(model='qwen2:7b',messages=[
    {
      'role':'user',
      'content':'中国的首都在哪里'
    },
])
print(response['message']['content'])

在这里插入图片描述

3、简单的人机交互界面

import ollama 
def get_completion(prompt):
    response =ollama.chat(model='qwen2:7b',messages=[
        {
          'role':'user',
          'content':prompt
        },
    ])
    return response['message']['content'].strip()
 while True:
        user_input = input("你: ")
        if user_input.lower() == '退出':
            print("聊天结束。")
            break
        print("\n机器人: 正在处理你的请求...")
        response = get_completion(user_input)
        print("机器人:", response)

结语

通过本教程,我们学习了 Ollama的简单安装与使用,让我们一起探索、实践、创新!
如果您发现这篇文章对您有所启发或帮助, 请不吝赐赞,为我【点赞】、【转发】、【关注】,带你一起玩转AI !

全网ID|AI大眼萌

  • 9
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 随着人工智能的快速发展和应用,中信建投也积极探索如何将人工智能应用到自身的业务中,提高生产力和服务水平。在不断尝试中,中信建投从使用已有的ChatGPT技术向生成式AI技术转型,探索新的人工智能范式。 在此前的尝试中,中信建投已经使用了基于ChatGPT的人工智能技术,实现了智能问答和智能客服等功能,为客户提供更加便捷的咨询服务。然而,该技术的应用也有一些限制,比如无法进行复杂的推理和判断,难以应对更复杂的业务情景。 为了应对这些挑战,中信建投开始尝试生成式AI技术的应用,这种技术不仅可以生成简单的问答,还可以进行更加复杂的推理和应用,甚至可以根据客户的需求生成全新的文章、报告等。 通过不断尝试和优化,中信建投成功地应用了生成式AI技术,并将其应用到股票、债券、基金等多个业务领域中,大大提高了服务水平和客户满意度。而且,这种技术也为中信建投创造了更多的商业机会和竞争优势,为未来的发展注入了强大动力。 总之,中信建投的探索和成功实践,为我们展示了新的人工智能范式,重新定义了生产力和服务水平,也为其他企业提供了有益的参考和借鉴。 ### 回答2: 中信建投一直致力于推动科技创新和数字化转型,特别是在人工智能领域,中信建投不断探究创新型人工智能技术,从"chatgpt"到生成式ai,重新定义生产力。 以聊天机器人"chatgpt"为例,中信建投通过构建以自然语言处理为核心技术的机器人,为客户提供更加智能化、自动化的服务体验,全面提升客户满意度。在这个基础上,中信建投把目光转向了生成式人工智能技术。生成式人工智能技术能够自动构建模型、理解任务、生成文本、图片及其他格式内容,可以为用户提供更加智能、个性化的服务。 生成式人工智能技术的应用将重新定义生产力,从传统的以人为核心的生产模式转变为以机器为核心的生产方式。中信建投通过生成式人工智能技术,实现了客户需求智能化解决方案,构建了高效率的客户服务体系,实现了"人机合一"的智能化运营体系。 总之,中信建投通过不断创新,重新定义生产力,为客户提供更高质量、更高效率的服务体验,为人工智能技术的应用探索开辟了新的领域。 ### 回答3: 中信建投是中国的一家大型综合性金融机构,在金融科技领域一直处于领先地位。最近,该公司向人工智能技术领域进军,尝试将聊天机器人技术(ChatGPT)升级为生成式AI,以重新定义生产力,实现更高效的业务运营和更出色的客户服务。 生成式AI人工智能技术的一种高度发展形式,它可以根据大量的数据学习生成新的内容和解决问题的方法。中信建投将这种技术应用到金融服务领域,希望它能够支持更加智能化和自动化的业务流程,提高核心竞争力。 中信建投的生成式AI通过大数据分析和自然语言处理技术,可以实时处理客户的调查、业务需求等信息,快速准确地生成相应的建议和解决方案。这种的智能化服务将会极大地改善客户体验,加强企业与客户之间的沟通和信任。 中信建投还依托其全球领先的技术实力,结合人工智能技术的创新应用,构建了庞大的金融服务网络,拓宽了服务渠道,提高了运营效率,增强了市场竞争力。 综上所述,中信建投的探索和实践,将人工智能技术与金融服务有机结合,充分发挥了技术的优势,提高了业务水平,开创了人工智能新范式,同时也注入了新的活力和动力,为推动金融行业的发展作出了积极贡献。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值