【AI学习指南】轻量级模型-用 Ollama 轻松玩转本地大模型

目录

探索

最小的AI模型

发现

其他轻量级模型

用 Ollama 轻松玩转本地大模型

本地大模型

Ollama

快速上手

安装

手动安装

下载ollama二进制文件

添加 Ollama 作为启动服务(推荐)

安装 CUDA 驱动程序(可选 - 适用于 Nvidia GPU)

安装 ROCm(可选 - 对于 Radeon GPU)

开始

下载模型

Web工具

推荐模型

图片支持

自定义系统提示词

更多选项

结语


探索

最小的AI模型

发现

其实最近受限于个人电脑配置和工作经历,对AI的探索几乎停滞了下来,直到今天无意中看到了这个

本来以为是个噱头,大家都知道模型越大,参数越多,性能就更好,同样的对硬件的要求就越高,只是看热闹似的搜索了下

Phi-3 Mini模型:这是一款专为手机和其他移动设备设计的轻量级语言模型。它能在手机上本地运行,提供高级语言处理功能,如个性化智能助理、实时语言翻译以及增强现实交互等

性能逼近GPT3.5ÿ

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

瑶山

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值