- 博客(56)
- 资源 (4)
- 收藏
- 关注
原创 华为NPU ascend-310p服务器部署大模型
根据 的输出,这是对华为昇腾(Ascend)AI处理器(NPU)的监控信息,具体解析如下:🔧 设备全局信息NPU 整体状态ID: → 系统中第4个NPU设备(多卡场景)型号: → 昇腾310P3处理器(中端推理卡)健康状态: → 设备工作正常功耗: → 未监测到功耗数据(可能未启用传感器)温度: → 安全范围(正常值通常<85°C)大页内存: → 未使用大页内存(Hugepages)芯片级状态(每张NPU卡含多个芯片)芯片ID: → 此NPU的第一个芯片设备ID: → 操作系统识别的逻辑
2026-01-26 19:18:43
1174
原创 Claude Skill 实战:测试、评估与迭代优化
本文介绍了系统评估和优化Claude Skill质量的方法论,主要从触发准确率和输出质量两个维度入手。文章详细讲解了如何构建触发测试集(包括正例和负例设计)、输出质量评估方法(包含断言和定性评估)以及迭代优化流程。通过案例分析展示了常见问题的解决方法,并提供了Skill发布前的质量检查清单。最后以code-reviewer Skill的迭代过程为例,说明如何通过持续测试和反馈来打磨Skill质量。文章强调Skill开发是一个持续迭代的过程,需要重视测试集的构建和优化。
2026-04-17 09:40:01
233
原创 Claude Skill 进阶:多文件结构、脚本集成与触发优化
《Skill进阶结构设计与优化指南》摘要: 本文系统介绍了Skill开发的进阶技巧,重点解决复杂场景下的组织架构问题。
2026-04-17 09:35:56
168
原创 Claude Skill 编写入门:让 AI 拥有专属技能
摘要: ClaudeSkill是结构化Markdown文档(SKILL.md),用于规范Claude在垂直任务中的行为,使其输出更稳定、专业。相比直接使用Claude,Skill通过定义触发条件、执行步骤和输出标准,实现任务级复用(如代码注释、PDF处理)
2026-04-17 09:33:05
157
原创 Hermes Agent 实战闭坑指南(踩坑血泪汇总)
上篇写了基础部署流程,评论区和私信里收到不少反馈——很多朋友卡在了细节上。这篇专门整理安装 → 配置 → 日常使用三个阶段最容易踩的坑,按报错现象分类,每个坑给出根因 + 解决方案,直接对症下药。Hermes Agent 迭代速度非常快(两个月跑了 8 个大版本),踩到的坑很多在下个版本就会修掉。先升级再诊断还不行就去搜报错关键词本文基于v0.8.0(2026年4月)
2026-04-16 09:47:24
593
原创 Hermes Agent 部署及使用完整教程
最近 AI Agent 圈子里最火的项目非莫属,GitHub 上短短两个月就突破 59K Stars,迭代速度极快。它到底是什么?简单说:Hermes Agent 是由 Nous Research 开源的自主学习 AI 智能体。🧠持久记忆:跨会话记住上下文,不会每次都失忆📚自动学习:完成任务后自动沉淀"技能",用得越久越聪明🔌模型自由:支持 OpenRouter、OpenAI、GLM、Kimi、MiniMax、Claude 等 200+ 模型,一行命令切换📱多平台。
2026-04-16 09:32:11
1029
原创 Hermes Agent vs OpenClaw:2026 年最全深度对比(架构 / 记忆 / 安全 / 生态 / 选型)
安全维度OpenClaw已知 CVE 数量138 个(2026 年 4 月)0 个(同期)公开暴露实例峰值 135,000 个无相关数据技能市场安全ClawHub 曾被大规模投毒hermeshub 自动安全扫描记忆写入防护无内置扫描注入/泄露模式扫描默认配置安全性⚠️ 不安全(需手动加固)✅ 安全优先子 Agent 隔离可选配置命名空间隔离内置OpenClaw 和 Hermes 代表了对"AI Agent 的核心价值是什么"这个问题的两种不同回答。
2026-04-15 13:29:20
921
原创 Hermes Agent 生态全景(四):Skills Hub、PLUR 共享记忆与 80+ 社区工具完整图谱
本文概述了Hermes Agent生态在2026年4月前的快速发展与核心架构。开篇通过数据展示了项目爆发式增长:六周内GitHub Star突破57,200,生态项目达80+。生态围绕agentskills.io开放标准构建,支持技能跨平台流通,包含技能层、工具层和基础设施层。重点介绍了明星技能包如Anthropic-Cybersecurity-Skills(含754个安全技能)和PLUR多Agent共享记忆机制,后者通过engram单元实现团队经验自动共享。文章呈现了一个开放、互操作的AI Agent生态
2026-04-15 13:29:13
386
原创 Hermes Agent 技术深潜(三):记忆系统与学习循环的完整源码解析
1. 分层而非堆叠:不同时效、不同用途的信息用不同结构存储,而不是全往一个地方塞。热数据(常驻 prompt)、温数据(技能库按需加载)、冷数据(SQLite 全文检索)各司其职。2. Agent 自主管理,而非用户手动维护:记忆的增删改由 Agent 自己判断,人工只在需要时介入修正。这是"自进化"的核心——人类不应该成为 Agent 进化的瓶颈。3. 以 token 效率为约束设计一切:3575 字符的记忆上限、四级渐进加载、patch 优于重写——每一个设计决策背后都有明确的 token 成本考量。
2026-04-14 14:44:18
381
原创 Hermes Agent 进阶实战(下):技术架构深解 × 真实场景部署 × 与主流 Agent 深度 PK
✅ 你希望 AI 助手越用越懂你,而不是每次从零开始✅ 你需要接入多个消息平台(Telegram / 飞书 / 钉钉)✅ 你有大量重复性任务需要自动化✅ 你希望不绑定任何单一模型厂商✅ 你在研究 AI Agent 的技术实现AI 的价值,不在于单次调用有多强,而在于持续使用后能积累多少。从"调用 AI"到"拥有 AI",这是 Hermes 正在尝试实现的范式转变。项目仍在高速迭代(一个月连发 4 个大版本),现在入场,恰好是最好的时机。参考资料。
2026-04-14 14:33:43
345
原创 Hermes Agent 深度解析:会自我进化的开源 AI 智能体
Hermes Agent 代表了 AI Agent 从"工具"向"伙伴"演进的重要方向。AI 的能力,不再只是"被调用",而是可以"被拥有"。如果你厌倦了每次都要重新解释自己的偏好,厌倦了工作流跑完就消失的痛点,Hermes Agent 值得深入体验。项目信息官网文档:https://hermes-agent.nousresearch.com开源协议:MIT当前版本:v0.8.0(2026年4月)有问题欢迎在评论区交流 🙌。
2026-04-14 14:20:54
1130
原创 Hermes 调试进阶:Chrome DevTools + Flipper 实战指南
摘要: 本文详细介绍了在React Native中使用Hermes引擎的调试方法。由于Hermes将JS代码编译为字节码,传统调试方式不再适用,需改用Chrome DevTools Protocol或Flipper等工具。文章对比了Chrome DevTools、Flipper和React Native DevTools三种方案的优缺点,并提供了具体的调试步骤,包括断点设置、内存快照分析和性能优化。同时强调了Source Map配置的重要性,以还原真实报错行号。
2026-04-14 10:22:38
388
原创 Hermes JS 引擎入门:让你的 React Native 应用飞起来
摘要: Hermes是Meta专为React Native设计的JavaScript引擎,通过AOT预编译将JS代码转为字节码,显著提升启动速度并降低内存占用,尤其适合中低端Android设备。从React Native 0.70起,Hermes成为Android/iOS双平台的默认引擎。启用方式简单,新项目默认支持,旧项目可通过修改配置开启。Hermes省去了JIT开销,但可能不适用于计算密集型场景。开发者可通过代码检测Hermes是否生效,并利用Chrome DevTools调试
2026-04-14 09:55:12
522
原创 深入 MySQL 内核:MVCC、Buffer Pool 与高并发场景下的极限调优
本文深入解析MySQL底层运行机制,帮助开发者进行有效性能优化。主要内容包括:1)InnoDB核心组件架构,如Buffer Pool、Redo Log等关键模块;2)Buffer Pool的LRU改良算法与预热策略;3)MVCC实现原理及不同隔离级别的差异;4)WAL机制与Redo Log的持久化保障;5)四种行级锁机制与死锁检测;6)连接管理优化策略。通过理解这些底层机制,开发者可以做出更有针对性的优化决策,如调整缓存大小、优化事务隔离级别、合理配置连接池等,从而提升MySQL数据库的整体性能。
2026-04-10 10:27:16
396
原创 慢查询、锁等待、连接爆满——MySQL性能瓶颈全景排查与提升指南
MySQL性能优化指南:从慢SQL到高效查询 本文系统性地介绍了MySQL性能优化的关键步骤。首先通过慢查询日志定位问题SQL,利用EXPLAIN分析执行计划,重点关注全表扫描、索引失效等风险信号。核心优化手段包括:合理设计联合索引(遵循最左前缀原则)、避免索引失效写法、使用覆盖索引减少回表。SQL写法优化要点包含分页优化、避免SELECT*、采用批量操作。此外还涉及锁与事务优化、关键参数配置调优,以及架构层的读写分离和缓存引入方案。通过这套方法,可显著提升MySQL查询性能,解决常见的数据库瓶颈问题。
2026-04-10 10:13:17
538
原创 Codex陷阱:AI生成代码的安全雷区
摘要: AI编程工具虽然提升了开发效率,但生成的代码可能存在严重安全隐患,如硬编码凭证、SQL注入、不安全的随机数等。本文列举了五大常见雷区,并给出安全替代方案。建议开发者建立AI代码审查清单,集成静态分析工具,用具体Prompt引导AI生成安全代码,并在沙箱中测试陌生代码。AI是工具,开发者需保持安全意识,确保效率与安全并行。代码能跑≠代码安全,审查环节不可省略。
2026-04-10 09:57:17
365
原创 MySQL安全加固十大硬核操作
MySQL生产环境安全加固指南摘要 本文针对MySQL 5.7/8.0/8.4版本,提出十项关键安全措施:1)账号权限最小化,避免ALL PRIVILEGES授权;2)清理匿名账户和test库;3)修改默认端口并绑定内网IP;4)强化密码策略,设置失败锁定机制;5)强制SSL/TLS加密传输;6)开启审计日志;7)限制文件读写权限;8)关闭非必要功能;9)实施定期备份和权限审计;10)建立安全配置基线。这些措施覆盖认证、网络、文件、日志、配置五大维度,可有效防范SQL注入、暴力破解等常见攻击等。
2026-04-09 10:01:54
899
原创 【2026年度技术风向标】大模型深水区、端侧算力与下一代云原生,正在重塑开发者生态
2026年IT行业五大核心技术趋势:1)Agentic Workflow取代单一Chatbot,多智能体协同成为企业标配;2)端侧AI爆发,本地大模型与NPU重构终端体验;3)WebAssembly成为主流Serverless形态;4)Rust语言主导底层基础设施重写;5)空间计算与3D生态初具规模。这些趋势标志着技术从概念炒作进入深度应用阶段,开发者需关注工程落地、安全性和异构计算等核心能力。
2026-04-09 09:22:37
464
原创 LangChain4j Multi-Agent 实战:Supervisor 主控 + 子 Agent 协同,Java 实现代码 Review 系统全解
摘要:本文详细解析了基于LangChain4j的Multi-Agent架构实现代码审查系统,通过专业化分工解决单Agent注意力分散问题。系统采用Supervisor模式动态协调风格检查、安全扫描和报告生成三个子Agent,利用AgenticScope实现数据共享。实测显示,并行执行使总耗时降低33%,漏报率显著改善。文章重点阐述了@Agent注解、AgenticScope机制和容错设计等核心概念,并提供了模型分级、生产部署建议及完整实现方案。该架构特别适用于需要高准确率的场景,虽增加一定成本,但质量提升显
2026-04-08 19:15:33
415
原创 MySQL 主从延迟根因诊断法
1. 量化延迟(pt-heartbeat 优于 Seconds_Behind_Master)2. 用 SHOW SLAVE STATUS 定层(网络 / IO 线程 / SQL 线程)3. SQL 线程慢 → 优先开并行复制(80% 场景的解法)4. 排查大事务 → 业务改造分批写5. 检查锁竞争 → 减少从库查询干扰6. DDL 变更 → 使用 gh-ost / pt-osc7. 磁盘 IO → 升级 SSD + 调整 innodb_io_capacity。
2026-04-08 19:15:23
813
原创 Spring AI 1.1 三件套实战:Structured Output + Tool Calling + Memory 从踩坑到生产落地
本文详细介绍了如何基于SpringAI 1.1.x搭建具备记忆、工具调用和可靠输出的企业级智能客服系统。文章从生产环境常见问题出发,通过三个版本迭代展示了核心功能的实现:v1实现结构化输出保证数据格式可靠性,v2加入工具调用扩展业务能力,v3引入记忆功能实现多轮对话。重点讲解了SpringAI 1.1的API变更、工具调用生命周期、内存管理机制等核心概念,并提供了完整的代码示例和配置方案。文章还总结了生产环境上线前的检查清单和监控建议,帮助开发者将AI应用从Demo顺利过渡到生产环境。
2026-04-03 13:27:44
392
原创 2026 年开源大模型选型指南:Qwen3.5 / DeepSeek V3.2 / Llama 4 横向对比
2026年开源大模型选型指南:针对全栈Java开发者的关键考量 本文从全栈开发者视角对比2026年三大主流开源模型家族(Qwen3.5、DeepSeekV3.2、Llama4)的核心特性。重点分析硬件需求(Qwen3.5-9B仅需单卡A100)、许可证风险(Apache2.0最友好)、Java生态支持(均兼容SpringAI)及场景适配性(中文首选Qwen,长文档选Llama4Scout)。特别指出模型选型应关注实际工程需求而非基准分数,建议大多数Java项目从Qwen3.5-9B起步,其以Apache2.
2026-04-03 09:26:10
741
原创 私有 LLM 多机多卡分布式推理:Pipeline Parallel vs Tensor Parallel 踩坑全记录
本文详细记录了在多机多卡环境下部署大语言模型(如Qwen3.5-72B和DeepSeek-V3)的完整实战经验。重点分析了TensorParallel(TP)和PipelineParallel(PP)的本质区别与适用场景,提供了10个常见问题的诊断方法和解决方案,包括NCCL卡住、Ray资源分配错误、InfiniBand配置等问题。文章还给出了双节点生产环境的完整启动脚本,并总结了关键配置速查表。通过环境检查清单、性能优化建议和错误排查步骤,帮助开发者规避分布式部署中的常见陷阱,提升多机推理的稳定性和效率。
2026-04-03 09:26:00
382
原创 vLLM 0.18 生产部署最佳实践:性能调优 + 可观测性全链路
vLLM 0.18.0升级与生产部署指南 本文详细介绍了vLLM 0.18.0版本的核心特性及生产部署要点。
2026-04-02 09:17:17
618
原创 Spring AI + Qwen3.5 实现多步 Agent:从工具调用到自主任务拆解的踩坑全记录
摘要:本文记录了基于SpringAI 1.1.3构建AI代理时使用Qwen3.5模型的10个典型问题及解决方案。主要问题包括:1)Qwen3.5默认思维链导致的响应延迟,可通过配置禁用;2)工具命名冲突需显式指定snake_case格式;3)多步工具调用需配置ToolCallAdvisor;4)并发安全问题需注意ChatClientRequestSpec实例隔离;5)流式响应需开启streamToolCallResponses选项。
2026-04-02 09:17:08
427
原创 LLM 红队测试入门:不写代码也能做的 5 种手工测试方法
读完本系列前五篇,你已经知道:大模型有哪些攻击面、越狱是怎么演化的、防御架构怎么设计、OWASP 的十条风险怎么落地。但知道这些还不够。上线前,你需要亲自尝试攻击自己的系统,而不是假设它是安全的。这就是红队测试的意义。NIST 把 AI 红队测试定义为:"在压力条件下对 AI 系统进行对抗性测试,以寻找失效模式和漏洞。" 根据 Adversa AI 2025 年安全报告,35% 的真实 AI 安全事件由简单的提示词触发,其中部分单次事件损失超过 10 万美元。
2026-04-01 10:07:39
381
原创 纵深防御架构设计:一张图看懂企业 LLM 应用的安全分层
本文提出企业级大模型应用的四层纵深防御架构:1)输入网关层(概率性防御)负责意图分类和注入检测;2)模型运行层(概率+确定性)强化SystemPrompt和内容隔离;3)输出审查层(概率+确定性)实施PII硬拦截和LLM-as-a-Judge评审;4)权限审计层(确定性)确保最小权限和沙箱隔离。核心思想是通过多层叠加将攻击爆炸半径控制在可接受范围,而非追求100%防御。
2026-04-01 09:03:46
363
原创 OWASP LLM Top 10:2025 逐条落地指南:开发者合规自查清单
前四篇文章建立了大模型安全的理论框架——注入攻击图谱、越狱演化史、纵深防御架构。这一篇做一件实用的事:把 OWASP LLM Top 10:2025 的每一条风险,翻译成开发者可以直接对照检查的问题清单。这条风险说的是什么(一句话理解)你的系统有没有这个问题(自查问题)有问题怎么修(修复要点)一个帮助理解的真实场景读完你可以直接把本文末尾的 Checklist 打印出来,在上线前逐条勾选。LLM01 提示词注入□ 输入层有语义意图分类器□ RAG 内容用边界标签隔离。
2026-04-01 09:03:15
389
原创 2026 年越狱手法全景:从角色扮演到多模态越狱的演化史
2023 年,OpenAI、Google、Anthropic 三家公司在 AI 安全对齐上的投入合计超过 30 亿美元。同年,一个叫"DAN"(Do Anything Now)的越狱咒语在 Reddit 爆红,任何普通用户复制粘贴一段话,就能让当时最先进的 GPT-4 说出它"绝对不会说"的内容。三年过去了。自动化越狱框架对主流商业模型的攻击成功率达 97%,对开源模型更高达 99%。这不是 AI 公司不努力。这是一场攻守双方能力都在加速演化的军备竞赛——而且,攻击方天然占有优势。
2026-03-31 09:02:30
411
原创 大模型注入攻击图谱:12 种变体原理 + 真实案例拆解
摘要:大模型注入攻击全景与防御挑战 大模型因架构缺陷(指令、数据混用同一上下文)导致注入攻击成为核心威胁。OWASP将提示词注入列为LLM首要风险,2026年研究显示顶级模型在多轮攻击下仍有80%沦陷风险。攻击分为四类12种变体......
2026-03-31 09:02:18
383
原创 Qwen3.5-9B 微调避坑:用 LLaMA-Factory 做企业 SFT 的 10 个踩坑全记录
本文详细记录了使用LLaMA-Factory v0.9.4微调Qwen3.5-9B模型的全流程实战经验,重点总结了10个关键踩坑点及其解决方案。
2026-03-30 10:55:12
563
3
原创 私有大模型上线前必做的 7 项安全检测:提示词注入、越狱、数据泄露防御实战
把大模型接入业务系统,很多团队的上线流程是:调通接口 → 测试几个对话 → 上线。它的"输入"和"指令"在同一个通道里,模型无法可靠地区分哪是数据、哪是命令。这意味着任何能影响模型输入的人,理论上都可以让模型做它不该做的事。2025 年 OWASP 发布了《大模型应用 Top 10 安全风险》,把提示词注入列为第一大风险。2026 年 3 月的最新实测显示,间接注入攻击在测试的所有本地模型上均可复现,且无法在模型层面根本消除。攻击原理和真实攻击示例Java 检测 / 防御代码(可直接复用)
2026-03-30 09:41:32
1347
原创 Java + RAG 从零搭建:用 LangChain4j 实现企业知识库问答
本文介绍了使用LangChain4j 1.0.0在Java环境下实现企业私有化知识库问答系统的完整方案。通过RAG(检索增强生成)技术,将企业文档(如PDF)解析、切片、向量化后存入PGVector数据库,在用户提问时检索相关文本段并生成答案。文章详细讲解了项目搭建、文档摄入管道、检索问答实现,以及SpringBoot集成和常见问题解决方案,包括中文分词优化、幻觉抑制等调优技巧。该方案可直接用于企业合规文档等场景,提供基于私有知识的精准问答服务。
2026-03-30 09:21:16
419
原创 2026年私有大模型推理框架选型:vLLM vs Ollama vs LMDeploy 深度对比
大模型推理框架选型指南:vLLM vs Ollama vs LMDeploy 本文对比了三大主流开源推理框架(vLLM 0.18.0、Ollama 0.18.3、LMDeploy 0.12.1)在Qwen3.5-9B模型上的实测表现。核心结论: 性能:LMDeploy TurboMind在高并发场景吞吐量达4200 tokens/s,显著优于vLLM(2800)和Ollama(900);
2026-03-30 09:20:54
426
原创 MCP 协议实战:用 Java 开发自定义 MCP Server 接入 Claude
本文介绍了如何使用MCP Java SDK 1.0.0实现企业内部人员查询服务,使Claude等AI工具能直接查询员工信息。主要内容包括:1) MCP协议概述,包含Tool、Resource、Prompt三种能力;2) 从零搭建Maven项目,配置依赖和打包;3) 实现员工查询Tool、组织架构Resource和入职引导Prompt;4) 本地STDIO调试和生产环境HTTP部署;5) 常见问题解决方案,如日志输出、JSON Schema描述、打包配置等。通过MCP协议,开发者可以将Java业务接口转化为大
2026-03-27 13:06:48
525
原创 vLLM 部署避坑全记录:从显存 OOM 到推理延迟优化
本文总结了vLLM 0.18.0生产部署中的常见问题及解决方案,涵盖环境准备、显存管理、参数调优等关键环节。主要经验包括:使用uv安装匹配CUDA版本的vLLM,避免驱动不兼容;合理设置max_model_len防止OOM;注意量化模型类型与精度要求;多卡部署时确保tensor-parallel-size与attention heads整除;生产环境必须关闭enforce-eager参数以降低延迟。文章还提供了Java客户端对接示例和性能调优建议,帮助开发者避开实际部署中的典型陷阱。
2026-03-27 11:46:14
940
原创 Linux系统上使用海光DCU部署开源大模型全攻略(以Qwen3-8B为例)
本文介绍了在Linux系统上使用海光DCU部署Qwen3-8B大模型的完整流程。首先概述了海光DCU作为国产AI加速卡的技术特点,包括ROCm生态兼容性和产品线规格对比。随后详细说明了环境准备步骤,包括系统要求、设备状态检查和DTK软件栈安装。最后介绍了vLLM推理框架的DCU适配版本,提供Docker部署方案。该指南为国产AI加速卡应用提供了实践参考,涵盖从硬件选型到软件部署的全过程。
2026-03-26 14:43:25
713
原创 华为昇腾NPU部署开源大模型全攻略(以Qwen3-8B为例)
本文详细介绍了在华为昇腾Atlas NPU上部署Qwen3-8B大模型的完整方案。首先区分了昇腾芯片(Ascend910B/310P)与Atlas NPU产品(如Atlas800IA2/300IA2)的概念差异,推荐了不同场景下的硬件选择:大模型推理首选Atlas800IA2(4颗910B芯片,256GB显存),中小规模部署可选Atlas300IA2。随后详细讲解了Linux环境配置、CANN软件栈安装、MindIE推理框架部署等关键步骤,并提供了模型下载、API调用及多卡并行配置的具体方法。
2026-03-26 13:32:27
956
原创 英伟达(NVIDIA)显卡全系列深度解析:从消费级到数据中心,私有化大模型部署选卡指南
摘要:大模型私有化部署GPU选型指南 本文系统梳理了NVIDIA各系列GPU产品线,针对大模型私有化部署场景提供选卡建议。消费级显卡中,RTX4090/5090凭借24GB/32GB显存适合个人开发者;专业级L40S以48GB显存成为中小企业性价比之选;企业级推荐H200/H100处理高并发推理,前沿研究则建议B200/GB200NVL72。选卡核心原则:显存决定模型规模,带宽影响推理速度,需综合考虑量化策略、软件生态和总拥有成本。70B以上模型优先选择支持NVLink的SXM版卡,中小企业部署34B模型推
2026-03-25 13:55:25
1398
原创 Linux环境vLLM部署Qwen3-8B模型实操
本文介绍了使用vLLM框架在Linux系统上部署Qwen3-8B大语言模型的完整流程。首先提供了适用于大模型部署的显卡推荐,包括NVIDIA A100、RTX 4090等不同场景的选择建议。详细说明了环境准备步骤,包括系统要求、驱动检查和Docker安装。重点讲解了两种vLLM安装方式(Docker和源码编译)以及Qwen3-8B模型的下载方法。最后展示了如何启动推理服务、调用API接口,并给出显存优化、批处理和多卡部署等性能调优建议。全文提供了从硬件选型到实际部署的完整指南,适合开发者快速上手大模型本地部
2026-03-25 10:59:14
1236
JS利用OTSU二值化并缩小选定区域
2022-05-30
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅