大模型带我们来到了自然语言人机交互的时代
1、安装本地大模型进行推理
下载地址:
https://ollama.com/download
部署本地deepseek
ollama run deepseek-r1:7b
ollama远程调用接口需要设置两个环境变量
OLLAMA_HOST=0.0.0.0:11434
OLLAMA_ORIGINS=*
2、制定Linux操作接口指令规范
需要ai推理生成的json格式:
[
{
"host": "10.1.1.10",
"OS": "CentOS7.9",
"user": "root",
"ssh_port": 22,
"command": "df -h"
}
]
提示词:
有如下json中的主机,请结合用户需求和OS类型给出准确的command命令替换“command”键值:
[
{
"host&#