
Autodl+ollama+LLM部署(终端对话+本地API调用对话)
创建如下配置的实例使用该实例的登陆指令和密码连接到该实例(我使用的是VScode)连接成功以后在终端使用以下命令开启学术加速(加速下载,否则网速会很慢)开启后使用下面的命令下载ollama(服务器是Linux系统,此命令可以在ollama官网的Linux版本下载位置找到)从上图可以看出,有个依赖需要安装,这个要看部署的服务器情况,有时候缺少有时候又是ok的,,安装对应的依赖后重新安装ollama就好了。安装成功之后再次执行ollama安装命令ollama安装成功!








