- 博客(8)
- 资源 (3)
- 收藏
- 关注
原创 docker部署Xinference,Dify调用
Xorbits Inference (Xinference) 是一个性能强大且功能全面、开源的、分布式推理框架,,专为大规模模型推理任务设计。支持大语言模型(LLM)、多模态模型、语音识别模型等多种模型的推理。该框架弥补了Ollama不能部署Rerank等模型的问题。Ollama专注 LLM(大型语言模型)。:极大简化了大语言模型、多模态模型和语音识别模型的部署过程。:支持一键下载并部署大量前沿开源模型,特别是rerank模型。可以利用 CPU 和 GPU 进行推理,提升集群吞吐量和降低延迟。
2025-06-11 21:04:22
454
原创 华为手机助手 导致 内存完整性 兼容问题如何解决
摘要:华为手机助手安装后会导致Windows安全中心内存完整性无法开启,卸载后问题仍存在。解决方法是通过PowerShell管理员命令查找并删除不兼容的驱动程序(如ew_usbccgpfilter.sys),需使用pnputil工具删除对应的.inf驱动文件而非.sys文件。但若遇到如mProtect64Ex.sys等没有对应.inf文件的驱动时,当前解决方案尚不完整,需进一步处理。(99字)
2025-05-31 02:43:10
181
原创 Dify应用MinerU处理pdf等文档(Docker本地化部署MinerU详细步骤见第4节)
文章主要介绍了如何在Dify中使用MinerU插件来处理PDF文件,并详细描述了从API申请、环境配置到本地化Docker部署的完整流程。首先,MinerU插件用于将文件转换为机器可读格式,如Markdown和JSON。用户需在MinerU官网申请API Key并进行插件授权。接着,文章详细说明了如何在Dify中配置环境变量FILES_URL,以确保MinerU插件能正常处理文件上传。随后,文章指导了如何在本地通过Docker部署MinerU,并解决了在Windows系统下因换行符格式(CRLF与LF)导致
2025-05-22 15:27:05
1308
原创 完美解决dify插件安装超时问题(Dify插件一直显示安装中问题)
POST路径:http://<dify访问地址>/console/api/workspaces/current/plugin/tasks/delete_all。首先浏览器登上dify后台,打开浏览器的开发者模型,找到随一fetch方法,复制authorization值,注意开头的Bearer不复制。#不知道什么时候开始,Dify插件总有几个插件一直显示安装中,也不提示成功或失败#一直转圈看起来很别扭,新装的插件也不知是否安装成功。今天终于有空着手解决这一问题。自此,插件按钮就清爽了!
2025-05-20 13:49:23
890
原创 Windows环境下运行Docker Desktop的WSL报错
Docker Desktop启动时候报错 "Error occurred during WSL startup appears",提示“打开WSL事件查看器”是不可行,但也不会造成任何实质性的故障。Docker Desktop依然可以运行。通过Windows事件查看器显示:无法找到来自源 WSL 的事件 ID 0 的描述。本地计算机上未安装引发此事件的组件,或者安装已损坏。可以安装或修复本地计算机上的组件。如果该事件产生于另一台计算机,则必须在该事件中保存显示信息。以下是包含在事件中的信息:查看。
2025-05-13 11:51:50
1467
原创 本地化部署QwQ 32B也不香了?Qwen 3 掀波澜!——大语言模型硅基进化狂飙,一个多月后再次升级
Qwen3作为Qwen系列的最新大型语言模型,于4月29日发布,可能取代QwQ-32B成为中小组织本地化部署的首选。Qwen3提供稠密和混合专家(MoE)模型,旗舰型号Qwen3-235B-A22B在编码、数学和通用能力测试中表现优异,与DeepSeek-R1、Grok-3等顶级模型竞争。
2025-05-08 23:51:00
663
原创 dify添加ollama本地化模型报错或无反应(dify 1.3及以上版本需如何有效更新)
目前dify版本更新速度很快,4月时dify连续版本升级、修复不少问题,截止5月1日,最新版本为dify1.31在dify+ollama是大语言模型(LLM)本地化部署常用的AI发布和运用框架。早些时候dify无法直接从远程仓库拉取下来,升级起来有些麻烦。近期可以直接访问,这大大方便了版本的更新维护。实测确实解决了dify1.0等环境下添加ollama模型的问题。到了1.2以及1.3版本后,情况有所变化:按照官网。
2025-05-01 10:36:12
1289
3
原创 Doker+Ollama 报错 Error: llama runner process has terminated 解决方案
将C:\Program Files\Docker\Docker\resources\bin文件夹下的ggml-base.dll文件改名,如加个.old后缀,至此问题可以得到有效解决!最新的Docker Desktop(4.41.0,2025-04-28)引入Model Runner(llama等dll),导致与Ollama冲突。有可能后续一段时间docker Desktop升级后都要如此处理,来解决与Ollama两者冲突问题。ip的11434端口依然在运行“Ollama is running”
2025-04-30 12:50:10
633
1
生成空间邻接矩阵 Jgal2WM(jar包)
2012-11-14
三星安卓4.0以上 凯立德外卡 可用的APK
2013-04-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人