window上运行LangChain+OLLaMA报错HTTPConnectionPool

window上报错HTTPConnectionPool

HTTPConnectionPool(host=‘localhost’, port=11434): Max retries exceeded with url: /api/generate/ (Caused by NewConnectionError(‘<urllib3.connection.HTTPConnection object at 0x0000022390A29A20>: Failed to establish a new connection: [WinError 10061] 由于目标计算机积极拒绝,无法连接。’))

上周测试 LangChain + OLLaMA 程序还能正常运行,这周电脑重启后就不行了。google了一遍没找到答案,尝试打开11434防火墙等无果。

然后摸索着,OLLaMA打开了,就正常运行了。

在这里插入图片描述
这次用通义千问7b模型只用时 1分钟
在这里插入图片描述


记录bug自用

### 如何在 Windows 上部署 FastGPT 和 Ollama #### 使用 Docker 容器化环境准备 为了简化跨平台兼容性和依赖管理,在 Windows 上推荐使用 Docker 来部署 FastGPT 及其关联组件。确保已安装最新版本的 Docker Desktop 并启用 WSL 2 后端支持[^1]。 #### 下载并启动 FastGPT 访问 FastGPT 的官方 GitHub 页面获取最新的发布版镜像标签,通过命令行执行如下操作: ```bash docker pull fastgpt/fastgpt:<latest-tag> docker run -d --name=fastgpt -p 8000:8000 fastgpt/fastgpt:<latest-tag> ``` 这会拉取指定版本的 FastGPT 映像文件,并以后台守护进程的方式运行容器实例,同时映射主机端口以便外部访问。 #### 获取与配置 Ollama 模型 qwen:7b 对于 Ollama 中特定的大规模预训练语言模型 qwen:7b 的集成工作,则需遵循以下流程: - 访问 Ollama 提供的服务页面下载对应架构下的二进制包; - 解压后按照说明文档完成基础设置; - 修改 FastGPT 配置使其能够调用本地加载好的 qwen:7b API 接口[^3]; 注意:由于部分工具可能不完全适配 Windows 命令提示符或 PowerShell,建议考虑借助 Git Bash 或者其他类 Unix Shell 工具来进行相关指令的操作。 #### 测试连接性及功能验证 当上述步骤完成后,打开浏览器输入 `http://localhost:8000` 即可进入 FastGPT 控制面板界面。此时应该能够在应用程序创建过程中看到可用的 AI 模型选项里包含了刚刚配置成功的 qwen:7b 实例[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

华尔街的幻觉

你的鼓励将是我创作的最大动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值