- 博客(14)
- 资源 (3)
- 收藏
- 关注
原创 初探小龙虾(安装OpenClaw和应用案例)
周末时间安装一个试用下,首先不想在本地电脑上安装,看资称成openclaw不同于沙盒运行、对本地文件有修改权限,上了阿里云,发现之前领取的云服务器 ECS还有100多的免费额度,时间剩下两天,可以以此试用openclaw。配置完AI模型配置后,看了下官方文档,目前阿里一键生成的openclaw还只有渠道插件钉钉,只为自家产品代言推广啊,感觉应用场景不大。创建一个云服务器 ECS示例,可以先啥都不用安装,Workbench 远程连接后,开始想用。基于 OpenClaw 4 步构建 AI 员工。
2026-03-09 13:27:56
387
原创 OPIK的安装、SDK使用以及集成到Dify中
本文介绍了开源LLM监测平台OPIK的安装部署与使用方案。OPIK由Comet开发,支持本地化部署(Docker或Kubernetes),提供LLM全生命周期管理功能,包括深度追踪、对话日志、智能体监控等。安装分为平台部署和SDK配置两部分,提供三种数据存储选项:云端托管(默认)、自托管Comet平台和纯本地存储。文章详细解释了OPIK的核心概念体系(轨迹、跨度、线程等)及其在Dify平台中的集成方法,通过配置连接即可实现应用性能的可观测性监控。该方案特别适合需要私有化部署的企业用户,在保障数据安全的同时提
2026-02-02 13:00:47
763
原创 MLflow的使用,以及集成到Dify中
摘要:MLflow是一个开源的一体化平台,专注于提升生成式AI应用的可观测性和性能管理。平台具有六大核心特性:开源(Linux基金会项目)、开放遥测(兼容OpenTelemetry)、一体化管理(涵盖实验到生产全流程)、完全可观测性(支持全链路追踪)、评估监测(自动化测试改进)和框架集成(支持30+技术栈)。本地部署可通过Docker快速搭建,使用git sparse-checkout优化下载。平台支持与Dify等工具集成,通过配置追踪URI和实验ID实现应用执行上下文的完整监控。MLflow提供直观的We
2025-12-19 15:50:55
818
原创 Windows下快速部署AI模型新选择—Docker Model Runner
本文介绍了在Windows系统下部署AI模型的多种工具和方法。首先对比了Ollama、LM Studio和Docker ModelRunner三种主流工具的特性,包括部署难度、模型支持、GPU加速等维度。针对Ollama在Intel设备上的性能问题,推荐使用英特尔优化版,并详细说明了环境变量设置方法。接着讲解了WSL2环境配置步骤,包括防火墙设置和CUDA驱动安装。最后重点介绍了Docker ModelRunner的功能和使用方法,包括模型拉取、运行、日志查看等子命令操作,特别强调了其在容器化隔离和多后端兼
2025-12-09 08:15:04
1230
翻译 transformer-explainer项目:更好的理解Transformer架构
本文详细解析了Transformer架构的工作原理,这是现代AI模型如ChatGPT的核心技术。Transformer通过三个主要部分处理信息:嵌入层将文本转换为数字向量;多个Transformer模块通过自注意力机制和MLP处理信息;最后输出层计算各词元的概率。文章具体介绍了词嵌入、位置编码、多头注意力机制、残差连接等关键技术,并解释了GPT-2模型的12层结构如何逐步提炼文本表示。此外还涵盖了温度调节、采样策略等文本生成技术,以及层归一化、Dropout等训练优化方法。这种架构既能处理大规模训练数据,也
2025-11-30 12:52:25
111
原创 解决docker_data.vhdx占用系统盘过大的问题
Docker Desktop默认将镜像文件docker_data.vhdx存储在C盘,可能占用大量空间。最新版本(4.49.0)提供简便迁移方案:在Settings→Resources→Disk image location中,将路径修改为D盘等非系统盘,点击"Apply & restart"并确认移动,即可自动完成文件迁移,释放C盘空间。整个过程无需复杂命令,简单高效。
2025-10-28 15:43:22
3077
1
原创 docker部署Xinference,Dify调用(dify环境中如何引入rerank模型)
Xorbits Inference (Xinference) 是一个性能强大且功能全面、开源的、分布式推理框架,,专为大规模模型推理任务设计。支持大语言模型(LLM)、多模态模型、语音识别模型等多种模型的推理。该框架弥补了Ollama不能部署Rerank等模型的问题。Ollama专注 LLM(大型语言模型)。:极大简化了大语言模型、多模态模型和语音识别模型的部署过程。:支持一键下载并部署大量前沿开源模型,特别是rerank模型。可以利用 CPU 和 GPU 进行推理,提升集群吞吐量和降低延迟。
2025-06-11 21:04:22
3652
原创 华为手机助手 导致 内存完整性 兼容问题如何解决
摘要:华为手机助手安装后会导致Windows安全中心内存完整性无法开启,卸载后问题仍存在。解决方法是通过PowerShell管理员命令查找并删除不兼容的驱动程序(如ew_usbccgpfilter.sys),需使用pnputil工具删除对应的.inf驱动文件而非.sys文件。但若遇到如mProtect64Ex.sys等没有对应.inf文件的驱动时,当前解决方案尚不完整,需进一步处理。(99字)
2025-05-31 02:43:10
2961
4
原创 Docker+MinerU+Dify处理pdf等文档(已更新同步建立本地知识库内容)
本文详细介绍了在Dify平台中集成MinerU工具的完整流程。首先通过申请API Key测试MinerU官方API功能,随后重点阐述了本地化Docker部署方案,包括环境配置、镜像构建、换行符问题解决等关键技术要点。文章还提供了升级到MinerU 2.5版本的注意事项,并展示了如何将MinerU处理后的文档同步存入Dify知识库的完整流程。整个过程涵盖了从基础配置到高级应用的全套解决方案,为需要处理PDF文档的用户提供了实用参考。
2025-05-22 15:27:05
4697
6
原创 完美解决dify插件安装超时问题(Dify插件一直显示安装中问题)
POST路径:http://<dify访问地址>/console/api/workspaces/current/plugin/tasks/delete_all。首先浏览器登上dify后台,打开浏览器的开发者模型,找到随一fetch方法,复制authorization值,注意开头的Bearer不复制。#不知道什么时候开始,Dify插件总有几个插件一直显示安装中,也不提示成功或失败#一直转圈看起来很别扭,新装的插件也不知是否安装成功。今天终于有空着手解决这一问题。自此,插件按钮就清爽了!
2025-05-20 13:49:23
6046
2
原创 Windows环境下运行Docker Desktop的WSL报错
Docker Desktop启动时候报错 "Error occurred during WSL startup appears",提示“打开WSL事件查看器”是不可行,但也不会造成任何实质性的故障。Docker Desktop依然可以运行。通过Windows事件查看器显示:无法找到来自源 WSL 的事件 ID 0 的描述。本地计算机上未安装引发此事件的组件,或者安装已损坏。可以安装或修复本地计算机上的组件。如果该事件产生于另一台计算机,则必须在该事件中保存显示信息。以下是包含在事件中的信息:查看。
2025-05-13 11:51:50
3885
3
原创 本地化部署QwQ 32B也不香了?Qwen 3 掀波澜!——大语言模型硅基进化狂飙,一个多月后再次升级
Qwen3作为Qwen系列的最新大型语言模型,于4月29日发布,可能取代QwQ-32B成为中小组织本地化部署的首选。Qwen3提供稠密和混合专家(MoE)模型,旗舰型号Qwen3-235B-A22B在编码、数学和通用能力测试中表现优异,与DeepSeek-R1、Grok-3等顶级模型竞争。
2025-05-08 23:51:00
1860
原创 dify 版本需如何有效升级(持续更新中……)
目前dify版本更新速度很快,4月时dify连续版本升级、修复不少问题,截止5月1日,最新版本为dify1.31在dify+ollama是大语言模型(LLM)本地化部署常用的AI发布和运用框架。早些时候dify无法直接从远程仓库拉取下来,升级起来有些麻烦。近期可以直接访问,这大大方便了版本的更新维护。实测确实解决了dify1.0等环境下添加ollama模型的问题。到了1.2以及1.3版本后,情况有所变化:按照官网。
2025-05-01 10:36:12
5146
12
原创 Docker+Ollama 报错 Error: llama runner process has terminated 解决方案
将C:\Program Files\Docker\Docker\resources\bin文件夹下的ggml-base.dll文件改名,如加个.old后缀,至此问题可以得到有效解决!最新的Docker Desktop(4.41.0,2025-04-28)引入Model Runner(llama等dll),导致与Ollama冲突。有可能后续一段时间docker Desktop升级后都要如此处理,来解决与Ollama两者冲突问题。ip的11434端口依然在运行“Ollama is running”
2025-04-30 12:50:10
2053
1
生成空间邻接矩阵 Jgal2WM(jar包)
2012-11-14
三星安卓4.0以上 凯立德外卡 可用的APK
2013-04-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅