ollama内网开发环境拉取模型配置说明

部分公司为内网开发,ollama无法正常拉取模型,可以将下面的地址加白

dd20bb891979d25aebc8bec07b2b3bbc.r2.cloudflarestorage.com

r2.cloudflarestorage.com

ollama.dev

*.ollama.dev

ollama.com

*.ollama.com

之后就能正常拉取模型了

### 配置内网环境下的 VSCode CodeGPT 插件 #### 代理设置 对于处于内网环境中的开发人员来说,访问外部资源通常需要通过代理服务器。为了使 VSCode 和其插件能够正常工作,在安装和配置过程中需正确设定代理。 在命令行工具中可以利用 `HTTP_PROXY` 或者 `HTTPS_PROXY` 环境变量来指定 HTTP/HTTPS 请求所使用的代理地址[^1]: ```bash export HTTP_PROXY=http://your.proxy.server:port export HTTPS_PROXY=https://your.proxy.server:port ``` 这些设置应当放置于 shell 初始化文件(如 `.bashrc`, `.zshrc`)之中以便每次启动终端都能生效。 针对 Windows 用户,则可以在 PowerShell 中执行相似操作: ```powershell $env:HTTP_PROXY="http://your.proxy.server:port" $env:HTTPS_PROXY="https://your.proxy.server:port" ``` 此外,VSCode 自身也支持图形界面下手动输入代理信息。打开设置 (`Ctrl+,`) 并搜索 "proxy" 关键词找到对应的选项进行填写即可。 #### 依赖安装 由于内网环境中可能无法直接连接互联网获必要的软件包或库文件,因此建议提前准备好所需的离线安装包并上传至内部网络共享位置供后续使用。 特别是当涉及到 Python 解释器及其第三方模块时,可以通过 pip 工具创建 wheel 文件形式的打包版本用于离线部署;而对于 Node.js 生态圈内的项目而言,则可借助 npm pack 命令完成相同目的的操作。 对于特定于 CodeGPT 扩展的需求,如果官方文档指定了某些额外依赖项,请务必确认它们能够在目标机器上被成功加载。考虑到 DeepSeek Coder Base 是由 Ollama 提供的服务端模型,确保该服务已经按照说明正确到本地非常重要。 #### 初始化配置最佳实践 一旦上述准备工作就绪之后,就可以着手开始正式配置过程了。这一步骤主要包括但不限于以下几个方面: - **激活虚拟环境**:如果是基于 Python 开发的应用程序,推荐为每一个新工程单独建立一套隔离的工作区以避免不同项目的相互干扰。 - **调整用户偏好参数**:依据个人习惯定制编辑器外观风格、快捷键映射表等内容,提高工作效率的同时也能带来更好的用户体验感。 - **验证功能可用性**:最后但同样重要的是要测试一下刚刚搭建起来的新环境是否真的达到了预期效果——尝试编写几行简单的代码片段看看能否顺利调用 AI 编程辅助特性。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值