- 博客(241)
- 收藏
- 关注
原创 web前端怎么调用后端接口
Promise = 处理异步操作的 “承诺对象”基于 Promise 的 HTTP 客户端 = 发请求返回 Promise,让异步代码写得干净、好维护。
2026-04-02 09:45:17
390
原创 大模型集成显卡支持及NPU支持
在 Windows AMD 笔记本上让 Ollama 用上 AMD 显卡,核心是:更新 AMD 驱动 + 安装 ROCm 6.1+ + 用最新版 Ollama + 强制用独显。Ollama Windows 只支持以下 AMD 独显(集显不支持):Ollama Windows 依赖 ROCm 6.1 或更高:powershell 确保 ≥ 0.17.0chap2 集显社区项目 已适配 AMD 集显(如 780M、790M,gfx1103)。bash运行 三、WSL2 + Linux
2026-03-24 10:49:37
774
原创 VS code docker远程调试
日常开发优先把命令写在 Dockerfile/docker-compose.yml 中,容器启动时自动执行,无需手动操作;临时调试可通过进入容器,在容器内的代码目录执行该命令;核心前提:容器内安装 debugpy + 端口映射 5678 + 执行目录能找到目标 Python 文件。
2026-03-19 18:46:13
466
原创 python docker 微服务怎么通过pycharm 逐行调试
Docker 20.10+ 版本可用,容器内可通过访问宿主机(替代手动写宿主机 IP),代码中settrace的 IP 可改为。
2026-03-18 15:58:01
480
原创 微服务 如何调试restful 接口
快速调试:优先用 FastAPI 内置的/docs(Swagger UI),零配置、可视化;命令行验证:用 curl/httpie 快速测试接口(适合服务器环境);复杂逻辑调试:结合 IDE 断点(PyCharm/VS Code),逐行检查变量和逻辑;线上问题排查:通过日志输出请求 / 响应关键信息,定位问题。
2026-03-18 14:37:26
404
原创 CI/CD 全面介绍
CI/CD = 持续集成(CI)+ 持续交付/部署(CD),是DevOps核心实践,用自动化流水线把代码提交→构建→测试→部署全流程打通,大幅提升交付速度与质量。要不要我给你一份可直接复制的 GitLab CI/CD 最简流水线配置(YAML),包含构建、测试、Docker 打包和部署到预生产?- GitLab CI/CD:与GitLab深度集成,YAML配置,免费额度高。- CI基础上,自动打包、部署到预生产/类生产环境。- 环境一致:开发/测试/生产环境标准化(容器化)
2026-03-17 22:30:22
376
原创 OAuth2.0
OAuth2.0 是一种开放的授权协议,核心解决「第三方应用无需获取用户账号密码,即可获得用户授权访问特定资源」的问题,本质是「授权而非认证」(认证是确认身份,授权是确认能访问什么资源)。OAuth2.0 核心是「授权而非认证」,4 种授权模式中授权码模式是最安全、最常用的;落地关键是「授权服务器 + 客户端 + 资源服务器」三层架构,Java/Python 均有成熟的开源组件支持;企业级场景优先选 Keycloak(内置完整 OAuth2.0+RBAC),避免自研授权服务器的安全风险;
2026-03-17 11:27:30
138
原创 RBAC 权限模型
# 方案 3:网关统一鉴权 + 集中 RBAC(微服务标配)Java、Python、前端、小程序、第三方系统都能接。所有服务(Java、Python、Go):新增、删除、编辑、导入、导出✅。:API 级拦截,防止非法调用✅。:控制左侧导航显示哪些菜单✅。
2026-03-17 11:23:20
289
原创 微服务架构及选型
微服务生态不是单一技术,而是围绕「服务解耦、通信、治理、部署」的完整技术体系,Java 和 Python 生态的核心差异在于「框架选型」和「治理组件适配」,但基础设施层(部署、存储、消息)高度统一。微服务生态的核心是「组件分层 + 生态适配」:Java 生态重「企业级治理」,Python 生态重「敏捷轻量」,跨生态通用层(网关、部署、存储)可完全统一;核心解决方案选型:注册 / 配置:混合生态用 Nacos,纯 Python 容器化用 K8s Service;
2026-03-17 11:07:23
359
原创 Power BI 完整介绍
Power BI 是微软推出的,核心定位是让业务人员无需深度依赖 IT,即可快速完成多源数据整合、建模、可视化与协作分享,是企业级报表与数据分析的主流方案之一。
2026-03-17 10:40:44
350
原创 报表开发方案比较
核心技术栈后端:Python(Django/Flask)/Java(Spring Boot)/Node.js + SQL(MySQL/PostgreSQL) + 缓存(Redis,缓解高频查询);前端:ECharts/Highcharts/Plotly.js(可视化) + Element UI/Ant Design(表格 / 筛选组件);实现方式后端提供数据接口(按维度查询、分页、筛选),前端调用接口渲染表格 / 图表,支持在线筛选(如按时间 / 产品 / 区域)、导出 Excel/PDF;
2026-03-17 10:33:32
379
原创 Embedding与向量数据库
核心逻辑整个技术体系的核心是将非结构化数据向量化,通过向量相似度衡量语义关联,再利用向量数据库实现高效的相似性检索与应用,是大模型时代实现私有知识利用、语义化智能应用的关键技术组合。实践打卡任务文档给出两个核心实践方向:一是用 Gensim 对《三国演义》做 Word Embedding,分析曹操的相似词汇及词汇向量运算;二是将自有文档通过 text-embedding-v4 向量化,用 FAISS 存储向量并管理元数据,完成语义查询与结果展示,实现从理论到实操的落地。
2026-03-11 11:05:26
403
原创 Docker+K8s+FastAPI:后端“王炸”组合值不值得学?
这套组合横空出世,瞬间刷屏后端圈,号称“零踩坑部署、接口秒级响应、新手也能快速上手”,甚至有人说“学会这套,后端加班直接减半,薪资还能涨30%”。一时间,不管是刚入行的新手,还是工作三五年的老开发,都在疯学这套技术,仿佛抓住了摆脱内卷的救命稻草。但真相真的这么美好吗?这套被吹上天的“王炸组合”,到底是后端人的福音,还是另一个割韭菜的噱头?今天咱们实测拆解,不玩虚的,把最真实的用法和坑点一次性说透,看完你就知道该不该学。02核心拆解:3步上手Docker+K8s+FastAPI,新手也能落地实操。
2026-03-11 09:16:40
221
原创 Python 开发者的实践指南
https://blog.csdn.net/JKQ8525350/article/details/158318832
2026-03-10 17:52:04
25
原创 LLM应用开发十五:Vibe Coding - 如何编写面向AI的需求文档
根据2.1中,我们拆解的Task,进行优先级划分,当看到2.2中生成的前端框架后,会更清晰接下来要做的任务。眼看着一天就结束了,又出现几个新的问题,身心疲惫不堪,于是先把问题记录存档,晚点再来修复。增加一个功能往往伴随出现多个问题的修复,恼火的是,修复一个问题,又出现多个问题。但在这个过程中,人会像着了魔一样,进入发现问题,描述问题,解决问题的循环中。」这句话的鼓舞,我摒弃了完美主义的束缚,不然一周的时间都不会有个好的睡眠。面向AI的文档,执行任务的Agent,重点是把需求拆解成优先级清晰的任务。
2026-03-09 15:21:13
430
原创 LLM应用开发第十四:2026年五大流行的AI智能体工作流模式
我们大多数人第一次使用大语言模型时,都感觉近乎魔法。你输入一个提示(prompt),它就给出回应——仅此而已。对于快速问答、头脑风暴或生成一段文字来说,这种“一次性交互”已经绰绰有余:提问、获得答案、继续前进。简单、高效、令人满意。但一旦我们开始要求AI完成真正的工作,问题就开始暴露了。试着让AI分析市场趋势、交叉验证多个信息源、综合洞察,并最终输出清晰可行的建议。通常你得到的结果听起来很聪明,却总感觉不够完整。
2026-03-09 14:23:45
410
原创 LLM应用开发第十一: 附录 openclaw - Tavily API Key
用 tavily_search 查今天国内的热点新闻”若返回带标题、URL 和摘要的结果,则配置成功25。
2026-03-06 17:05:06
2092
原创 LLM应用开发十一:零门槛搭建本地AI助手:OpenClaw(原MoltBot、Clawbot)部署保姆级教程
通过以上步骤,Windows系统用户可零门槛完成OpenClaw本地部署,拥有一款“能动手、会跑腿”的专属AI助手。核心流程可概括为:搭建Node.js环境→安装主程序→初始化配置→解决常见故障→验证功能。部署过程中,最易踩坑的点是“Node.js版本不足”“脚本权限未解锁”“令牌缺失”,按本文步骤逐一排查即可解决。新手无需追求一步到位配置所有功能,可先使用基础能力,后续逐步探索模型切换、多渠道对接等拓展功能,让AI助手随需求逐步进化。
2026-02-26 09:32:05
1067
原创 LLM应用开发十:本地部署Dify, Docker, Ollama
本地安装dify,需要先安装docker desktop,要安装docker desktop,需要安装wsl(windows下的linux系统)打开任务管理器(Ctrl + Shift + Esc),在界面查看是否开启虚拟化注意:如果没有开启,需要重启电脑进入开启虚拟化右键windows图标 ➡️ 选择终端管理员 ➡️ 在终端管理员(PowerShell)中输入 wsl --version如果没有安装wsl,则输入命令 wsl --install等待系统安装Linux子系统和WSL2内核。
2026-02-25 09:31:18
887
原创 English - Special Address by Prime Minister Mark CarneyWorld Economic Forum Annual Meeting
ruptureharshrivalrycomplianceAnd itsfragilityprosperedexemptrigourThisfictionhegemonyThank you.
2026-01-26 18:14:05
743
原创 MOM (三)工厂模型
关联到 ERP控制键值(ZUl1关键工序(必须报工) ZUl2 一般工序不必须))、工作中心、ERP工作中心。物料关联到:工艺路径。
2026-01-23 14:21:23
117
原创 ISA95 企业控制集成标准
生产性能模型:生产性能模型根据生产计划请求的执行或某一个生产事件报告生产结果,唯一地标识生产性能, 包括版本和修订号,提供生产性能的描述和其他附加信息, 识别相关的生产计划, 提供实际的生产开始和结束时间, 提供实际的资源使用情况,提供生产的位置信息,对生产性能发布的时间日期归档,提供生产产品设备的物理模型定义(生产厂,生产区域, 过程单元,生产线……ISA95 标准定义了企业商业系统和控制系统之间的集成,主要可以分成三个层次, 即企业功能部分,信息流部分和控制功能部分;
2026-01-23 11:45:37
921
原创 MOM 制造运营管理(一)
IEC/ISO 62264标准对制造运行管理的定义是:通过协调管理企业的人员、设备、物料和能源等资源,把原材料或零件转化为产品的活动。它包含管理那些由物理设备、人和信息系统来执行的行为,并涵盖了管理有关调度、产能、产品定义、历史信息、生产装置信息,以及与相关的资源状况信息的活动。
2026-01-23 11:25:54
839
原创 LLM应用开发十:国内外主流 AI 编程工具
以下是国内外主流 AI 编程工具的核心功能、适用场景与费用详情(截至 2026 年 1 月),按 “国外 / 国内” 分类,便于快速选型。
2026-01-19 16:50:37
1245
原创 LLM应用开发九: 开源智能体平台
开源智能体平台已形成模块化底座(LangChain)、协作框架(AutoGen/CrewAI)、企业级平台(AgentScope/Dify)、低代码工具(Coze)的完整生态。大模型开发人员可根据场景选择合适平台,快速构建自主决策、工具调用、多智能体协作的 AI 系统。
2026-01-19 16:40:35
1155
原创 LLM应用开发八:Agent企业级智能体系统架构设计
通过清晰的分层设计,成功地将大模型的通用能力转化为解决特定业务问题的智能体能力。基础设施层保证了算力与资源的弹性。工具层通过 MCP 协议实现了能力的无限扩展。核心服务层通过 Memory 和 Workflow 赋予了 Agent “思考”与“回忆”的能力。应用层则快速响应业务需求,实现规模化落地。
2026-01-19 16:24:52
1081
原创 LLM应用开发七:Agent进阶
2025年,AI将从‘会说话’进化到‘会干活’。AI智能体(AI Agent)不再是简单的聊天机器人,而是能够感知环境、规划任务、调用工具并主动推进目标的‘数字员工’。本文将系统性拆解AI智能体的完整知识体系,从核心认知架构到企业级落地细节,深入探讨规划算法、记忆系统和工具使用的关键技术,并展示如何在电商客服等高频场景中实现‘Agent+RAG+长期记忆’的落地流程。
2026-01-16 17:16:38
1056
原创 LLM应用开发六:Agent的发展和应用
想象一下,你有一个非常能干的助手,他不仅能理解你的需求,还能主动帮你解决问题,甚至在你没有明确指示的情况下,也能根据环境变化做出合理的判断和行动。这就是Agent的基本概念。简单来说,Agent(智能代理)就是一个能够独立思考和行动的”数字助手”。它具备四个关键能力:能够观察周围环境、分析当前情况、制定行动计划,并且执行这些计划来达成目标。就像一个优秀的员工,不需要老板时刻监督,就能自主完成工作任务。更专业一点的定义是:Agent是一种能够感知环境、做出决策并采取行动以实现特定目标的自主系统。
2026-01-16 17:11:42
922
原创 LLM应用开发五:RAG-深度剖析RAG技术栈的核心构成
最佳实践提示:在金融、医疗等专业领域,建议叠加领域微调模型(如FinGPT、Med-PaLM)和术语校验层。开源方案:bge-large-zh(中文优化)、E5、Sentence-BERT。主流选择:Pinecone、Milvus、Qdrant、Weaviate。重排序模块:Cohere Reranker、bge-reranker。进阶方案:ColBERT、RAG-Fusion多查询扩展。端到端优化:端到端可训练的RAG架构(如RA-DIT)生成质量:ROUGE、BLEU、FactScore。
2026-01-16 16:13:58
449
原创 LLM应用开发四:RAG技术
然后,生成模型利用检索到的信息生成最终的输出。然而,将KGs整合到RAG系统中也面临挑战,包括从大规模KGs中导航和提取相关子图的复杂性、KGs扩展时的可扩展性问题,以及将结构化数据与语言模型的无序数据处理对齐的困难。:一种创新方法,与传统做法不同,它在分块之前对整个文档进行嵌入,从而使模型保留完整的上下文,特别是在处理复杂或上下文密集的文本时,显著改善了检索结果。这些先进的分块策略使RAG能够更好地适应复杂的文档结构,捕捉细微信息,并提升检索准确性,为多样化的检索和生成任务提供了更强大的支持。
2026-01-16 15:59:56
563
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅