本地部署 Bolt.new - 小学生都能轻松搭建AI编程环境
大家好,今天我要和大家分享一个超级酷的AI编程工具——Bolt.new,以及如何用Ollama和Qwen2.5-Coder在本地搭建这个工具。这个工具不仅功能强大,而且操作简单,即使是编程小白也能轻松上手哦!
什么是Bolt.new?
Bolt.new是一个基于SaaS的AI编码平台,它利用大语言模型(LLM)和WebContainers技术,让你在浏览器中就能完成代码编写和运行。它的优势在于:
- 前后端同时开发:你可以在同一个平台上同时进行前端和后端的开发。
- 可视化文件夹结构:项目文件夹的结构一目了然,方便管理。
- 自动安装依赖:平台会自动帮你安装所需的依赖,比如Vite和Next.js。
- 运行Node.js服务器:从开发到部署,一站式搞定。
Bolt.new的目标是让每个人都能轻松开发web应用,即使你没有任何编程经验,也能通过简单的自然语言描述来实现你的创意。
为什么选择本地部署?
虽然Bolt.new很强大,但国内访问速度有时会受限,而且免费Token额度有限。为了让大家更自由地使用这个工具,我们可以在本地部署它,这样就能摆脱这些限制啦!
如何本地部署Bolt.new?
1. 安装Qwen2.5-Coder模型
首先,我们需要在本地安装Qwen2.5-Coder模型。这个模型是阿里开源的,性能非常强大,甚至在多项基准评测中超越了GPT-4。
-
下载模型:
你可以根据自己的显卡显存选择合适的模型大小。比如,我们选择14b模型进行演示:ollama pull qwen2.5-coder:14b-instruct-q8_0
-
修改模型参数:
默认情况下,Ollama的最大输出Token数量是4096,这对代码生成来说可能不够。我们需要增加上下文Token的数量。
创建一个Modelfile文件,并填入以下内容:FROM qwen2.5-coder:14b-instruct-q8_0 PARAMETER num_ctx 8192
然后,执行模型转换:
ollama create -f Modelfile gpt-4-8k
-
模型运行:
ollama run gpt-4-8k
2. 本地运行Bolt.new
-
下载Bolt.new-any-llm:
这个版本支持本地模型,我们可以通过以下命令下载:git clone https://github.com/coleam00/bolt.new-any-llm
-
配置环境变量:
复制一份环境变量文件,并修改其中的OPENAI_LIKE_API_BASE_URL和OPENAI_LIKE_API_KEY:cp .env.example .env OPENAI_LIKE_API_BASE_URL=http://192.168.31.20:11434/v1 OPENAI_LIKE_API_KEY=sk-******
-
安装依赖并运行:
确保你已经安装了Node.js,然后执行以下命令:sudo npm install -g pnpm pnpm install pnpm run dev
如果看到类似以下的输出,说明启动成功:
➜ Local: http://localhost:5173/ ➜ Network: use --host to expose ➜ press h + enter to show help
3. 效果展示
在浏览器中打开http://localhost:5173/
,选择OpenAILike类型的模型。首次加载时,可能需要多刷新几次才能拉取到模型。
我们来试试写一个网页版的贪吃蛇游戏吧!左侧是流程执行区域,右侧是代码编辑区域,下方是终端区域。写代码、安装依赖、执行终端命令,全部由AI帮你搞定!
如果遇到报错,直接把报错信息丢给它,再次执行,如果一切顺利,右侧的Preview页面就能成功打开。
写在最后
通过本文的介绍,相信大家已经掌握了如何在本地部署Qwen2.5-Coder模型,并成功驱动Bolt.new进行AI编程。这个工具对于前端项目的开发非常有帮助,当然,如果你懂一些基本的前后端知识,使用起来会更加得心应手。
如果你觉得这篇文章对你有帮助,别忘了点赞收藏哦!下次见!