- 博客(4)
- 收藏
- 关注
原创 本地低配大模型LMStudio+qwen3 0.6b
最新的版本加入了Hugging Face代理开关,模型也可以点击就送了。之前LMStudio这玩意不好用,因为下模型没法配置代理,下载不动。据说因为底层架构优化的原因,执行效率比ollama高,正在试用中。来不及悼念ollama了,接下来登场的是LMStudio。
2026-04-01 09:16:22
18
原创 虚拟机部署openclaw+本地ollama
推荐Rock10, 单独的机器,或者是用Windows自带的Hyper-V虚拟机都可以。链接到官网下载对应的安装包就行了,Linux可以使用Rock10,已测试没问题。记得打开防火墙端口,我用的是12555作为ollama服务端口。4.把虚拟机里的ollama服务端口映射到本机的8089端口。记得在windows防火墙里配置允许8089的出入访问。openclaw的安装已经是傻瓜模式了,直接进入。3.ollma的安装,详见我另一篇我文章。1.openclaw的安装。2.Linux的安装。
2026-03-27 11:32:40
21
原创 在PC电脑桌面显示追踪黄金价格的小程序
SetWindowPos Me.hwnd, HWND_TOPMOST, 0, 0, 0, 0, SWP_NOMOVE Or SWP_NOSIZE '将窗口设为总在最前。Private Const HWND_TOPMOST& = -1 ' 将窗口置于列表顶部,并位于任何最顶部窗口的前面。最近用黄金赚点电费,找了很多实时看黄金的PC桌面程序都不是很好用,自己用VB写的,代码也非常简单。功能1 每10秒去公开的API网站查一下金价,提供了很多数据,我只提取和显示购买价格。功能2 置顶显示,这样随时都能看到。
2026-03-03 16:41:57
1019
原创 【deepseek本地化部署ollama模式】在linux下部署deepseek完整详细新手教程
主要是:vllm + dify + deepseek + AnythingLLM + docker + docker compose ,vllm做底座,dify做可视化开发,deepseek作为AI核心,AnythingLLM做知识库工具,docker + docker compose做应用容器管理,它就很全能了。主要是:ollama + deepseek + chatbox可以搭建一个能对话的机器人,能完成一些AI的互动应答,再想扩展就比较麻烦了。按下ctrl+d或者输入/bye可以退出。
2025-03-11 10:17:48
1039
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅