【快捷部署】016_Ollama(CPU only版)

2 篇文章 0 订阅

ITHW016.jpg


📣【快捷部署系列】016期信息

编号选型版本操作系统部署形式部署模式复检时间
016Ollama(CPU only)latestCentOS 7.XDocker单机2024-04-10

注意事项:
1、目前镜像及大模型下载速度尚可,但由于容量较大,所以建议使用100Mbit/s以上的带宽。
2、2个容器镜像大小约为4G左右,大模型采用Gemma:9B,大约4.7G。
3、Ollama启动方式采用CPU only,由于没有GPU,所以运行速度较慢,建议采用16核以上的服务器。
4、为了降低入门体验门槛,所以规避掉了对于硬件GPU的要求,如想“顺滑”体验,还请使用带GPU的基础设施。
5、脚本部署过程,控制台会提示,输入内网IP地址,输入后才会继续执行,切勿一直等待。
6、本文脚本不适用于带GPU的设备,如有需要,请参见官网或关注后续博文。


一、快捷部署

#!/bin/bash
#################################################################################
# 作者:cxy@toctalk@hwy 2024-04-09                                                 
# 功能:自动部署Ollama(Docker方式) 
# 说明:如果已安装了Docker,请注释掉 install_docker,避免重复安装                                                                 
#################################################################################

info(){
  echo -e "\033[34m 【`date '+%Y-%m-%d %H:%M:%S'`\033[0m" "\033[35m$1\033[0m "
}


install_docker(){
#!/bin/bash
info "安装依赖..."
yum -y install gcc
yum -y install gcc-c++

##验证gcc版本
gcc -v


info "安装Docker(指定版本:23.0.6)"
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O/etc/yum.repos.d/docker-ce.repo
##更新yum软件包索引
yum makecache fast

## 安装docker ce cli
# 查看可安装版本:yum list docker-ce --showduplicates | sort -r
yum -y install docker-ce-23.0.6-1.el7 docker-ce-cli-23.0.6-1.el7

info "启动Docker并验证"
systemctl enable docker && systemctl start docker
docker version


## 创建加速器
#cd /etc/docker
#if [ ! -f "$daemon.json" ]; then
#  touch "$daemon.json"
#else
#  rm -rf daemon.json
#  touch "$daemon.json"
#fi
#tee /etc/docker/daemon.json <<-'EOF'
#{
#	"registry-mirrors": ["https://自己的镜像加速器地址"]
#}
#EOF
#systemctl daemon-reload
#systemctl restart docker


info "Docker(23.0.6)安装完毕!"
}





# 安装 Ollama
install_Ollama(){
 info "参考IP地址:"$(hostname -I)

 read -p "请问,您当前服务器的内网IP地址是?:" inner_ip

 inner_ip="${inner_ip:-127.0.0.1}"

 docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama --restart always ollama/ollama
 info "ollama部署完毕,开始下载gemma大模型..."

 docker exec -it ollama ollama run gemma “你好”
 info "gemma大模型加载完成,开始部署webui界面..."

 docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://${inner_ip}:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:main

 eip=$(curl ifconfig.me/ip)

 info "部署完毕,正在启动WEBUI界面,大约5分钟后,请访问:http://${eip}:3000"
}

install_docker
install_Ollama


使用方法:

$ vim install-ollama-centos7.sh
$ chmod +x install-ollama-centos7.sh
$ ./install-ollama-centos7.sh
# 感谢淘客科技提供的实验资源环境

验证:

1、docker ps (能看到2个容器实例正在运行)
2、浏览器访问:http://eip:3000 (需要等待WEBUI启动,并且放通了3000端口的访问规则)

# open-webui启动有些慢,通过日志查看进度
$ docker logs -f open-webui

ollama-控制台.png


二、入门体验

chat界面.png

详细体验操作请观看后续相关视频


由于是入门系列,所以仅列举了简单的体验场景。
更多信息可访问官网:https://ollama.com
更多的模型:https://ollama.com/library
open-webui:https://github.com/open-webui/open-webui
当然,您也可以关注我,关注后续相关博文。



往期精彩内容推荐

云原生:5分钟了解一下Kubernetes是什么
【快捷部署】015_Minio(latest)
【快捷部署】014_elasticsearch(7.6)
【快捷部署】011_PostgreSQL(16)
【快捷部署】010_MySQL(5.7.27)
【快捷部署】009_Redis(6.2.14)
「快速部署」第一期清单

  • 11
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
机器学习是一种人工智能的技术,它通过训练模型来从大量数据中学习并获取知识,然后利用这些知识进行预测和决策。机器学习的部署是将训练好的模型应用到实际场景中,以实现自动化的数据分析和决策支持。 机器学习的部署可以选择不同的硬件平台,其中,CPU部署是最常见的方式之一。CPU(中央处理器)是计算机的核心,其在机器学习中的作用是执行各种数学运算,包括浮点运算、矩阵计算等。相对于其他硬件平台(如GPU、TPU等),CPU部署更加灵活和通用。 CPU的机器学习部署有以下几个特点和优势: 1. 多功能性:CPU可以支持广泛的应用场景,包括图像识别、语音识别、自然语言处理等。它可以处理各种不同类型和规模的数据,并提供相对较高的计算性能。 2. 可扩展性:CPU部署方式可以很容易地进行扩展,通过增加CPU的数量可以提供更大的计算能力。这对于处理大量数据或者复杂的机器学习模型是非常重要的。 3. 低成本:相对于其他硬件平台,如GPU或TPU,CPU在价格上更加经济实惠。这使得CPU的机器学习部署更容易被广泛采用,尤其是对于小规模和中等规模的企业来说。 然而,需要注意的是,相比于GPU或TPU等专用硬件平台,CPU的计算能力相对较弱。对于计算密集型的机器学习任务,采用CPU部署可能会带来较长的运行时间。为了提高效率,我们可以选择对模型进行优化、使用多线程编程技术等手段。 综上所述,机器学习部署CPU是一种灵活、通用且经济实惠的选择。它适用于大多数机器学习任务,并可以通过扩展CPU数量来提供更大的计算能力。然而,对于计算密集型任务,可能需要考虑其他硬件平台以提高运行效率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值