- 博客(12)
- 资源 (3)
- 收藏
- 关注
原创 MCP开发:MCP Server开发
MCP(Model Context Protocol,模型上下文协议)是由Anthropic公司于2024年11月正式开源的标准化协议,旨在统一大型语言模型(LLM)与外部数据源、工具的交互方式。它被业界称为AI领域的"USB-C接口",实现了"一次集成,多端复用"的高效开发模式。简单来说,MCP解决了AI应用中的"手脚"问题——传统大模型虽然"大脑"强大,但无法直接操作本地文件、调用API或访问私有数据,就像电脑没有USB接口一样受限。
2025-10-28 12:46:11
72
原创 MCP开发:在Docker中运行MCP服务
摘要 本文介绍了如何使用Docker部署和运行mcp服务。首先通过docker run命令启动容器,将服务器/home/mcp目录挂载到容器内,并映射8000端口。使用mcp:latest镜像运行python /home/mcp_server.py启动服务。可通过docker ps查看容器运行状态,docker logs mcp查看服务日志。操作包括:容器启动、目录挂载、端口映射、状态检查和日志查看等关键步骤。
2025-10-28 12:43:14
181
原创 MCP开发:制作MCP基础镜像
本文介绍了基于Python 3.10镜像制作MCP镜像的两种方法:1)远程拉取pip包安装,通过修复DNS解析并使用pip安装requests、urllib3和fastmcp等依赖;2)本地pip包安装,将下载好的whl包复制到镜像中本地安装。两种方法均设置了工作目录为/home,并提供了完整的Dockerfile示例。制作镜像时需将Dockerfile上传到服务器指定路径,执行docker build命令后可通过docker images查看生成的镜像。关键步骤包括DNS解析修复和依赖包安装配置。
2025-10-28 12:41:59
46
原创 2504-SiteShow简单网站搭建攻略
本文介绍了在单台服务器上部署NGINX作为HTTP Web服务器的完整方案。系统采用二级页面结构:主页展示基础信息,通过彩色卡片链接跳转至二级页面(总览、ICP备案等)。详细说明了HTML页面设计(包括响应式布局和交互效果)、服务器目录结构组织,以及NGINX的两种配置方式(单独路径匹配和简化alias配置)。重点阐述了如何通过nginx.conf文件实现页面路由、静态资源访问和错误处理,确保用户可通过统一域名访问主页面及各级子页面。方案包含完整的视觉设计和技术实现细节,适用于基础信息展示场景。
2025-09-09 14:43:24
54
原创 2503-NGINX泛域名代理
本文介绍了使用NGINX配置动态反向代理的方法,实现将复杂内部域名映射为简单易记的外部域名。通过配置nginx.conf文件,设置泛域名解析(如*.caacsri.com),利用正则表达式提取子域名参数,动态转发到对应内部域名(如xx.obsv3.cd-caacsri-1.caacsricloud.com)。
2025-09-09 14:41:24
140
原创 2502-NGINX作为HTTP Web服务器使用攻略
本文介绍了在单台服务器上部署NGINX作为HTTP Web服务器的基本配置。主要内容包括:默认页面路径为/usr/share/nginx/html,用户自定义页面存放在/usr/share/nginx/html/www目录下;详细解析了nginx.conf配置文件的结构,涵盖全局块、事件块和http块的关键配置项
2025-09-09 11:07:19
99
原创 LLM开发-应用层5:部署LLM模型(DeepSeek R1)
本文介绍了基于昇腾AI硬件系统的模型部署流程。硬件配置包括双KunPeng920 CPU、4张910A NPU及32GB显存。软件环境使用OpenEuler 20.03+Docker 21.03,依赖CANN 8.0.0、PyTorch 2.4.0等组件。部署过程分两部分:1)通过ModelScope下载DeepSeek-R1-Distill-Qwen-7B模型;2)使用MindIE推理引擎运行模型,包括准备模型文件、配置Docker容器、设置NPU设备映射、修改权限和启动服务等步骤。最后通过curl命令验
2025-09-06 10:58:52
88
原创 LLM开发-应用层3:部署Embeding模型
本文介绍了基于华为鲲鹏920 CPU和昇腾910 NPU硬件环境下的BGE-M3模型部署流程。首先说明了系统环境配置要求,包括OpenEuler操作系统、CANN驱动和Python依赖库。然后详细描述了通过ModelScope下载模型文件的步骤,包括安装工具、下载命令及文件监控方法。接着介绍了使用MindIE推理引擎的Docker镜像部署流程,包括镜像拉取、容器启动参数配置和模型服务验证方法。最后提供了通过curl命令测试模型服务的示例,验证文本向量化功能的正确性。整个文档涵盖了从模型下载到服务部署的完整流
2025-09-05 22:33:05
251
原创 LLM开发-应用层4:部署Reranker模型
本文介绍了基于华为鲲鹏920和昇腾910A硬件平台运行BAAI/bge-reranker-v2-m3模型的完整流程。主要内容包括:1)硬件配置要求(CPU、NPU、存储等)和软件环境准备(OpenEuler系统、CANN、Python等);2)通过ModelScope下载模型文件的方法及注意事项;3)使用Docker容器部署模型的详细步骤,包括镜像拉取、容器运行和模型测试;4)常见问题解决方案,如路径错误、依赖冲突和内存不足等。该方案适用于在华为昇腾平台上部署和运行自然语言处理模型。
2025-09-05 22:31:57
615
原创 LLM开发-应用层2:Dify在线升级
摘要:Dify升级操作指南强调备份为先,提供Git升级(推荐)和手动覆盖两种方式。关键步骤包括:1)备份数据/配置;2)选择升级路径(Git方式需执行版本切换命令,手动方式需下载覆盖文件);3)升级后执行容器更新和数据库迁移(可选)。特别提醒从0.15.3升至1.8.1存在重大版本变更风险,需仔细检查配置差异,生产环境建议预先测试。出现异常可通过日志排查或使用备份快速回滚。(149字)
2025-09-05 16:30:00
180
原创 LLM开发-应用层1:Dify部署
Dify是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和LLMOps的理念,使开发者可以快速搭建生产级的生成式 AI 应用。Dify 提供了更接近生产需要的完整方案,Dify 好比是一套脚手架,并且经过了精良的工程设计和软件测试。重要的是,Dify 是开源的,它由一个专业的全职团队和社区共同打造。你可以基于任何模型自部署类似 Assistants API 和 GPTs 的能力,在灵活和安全的基础上,同时保持对数据的完全控制。
2025-09-05 10:15:00
137
原创 2501-NGINX
简单介绍在服务器中部署NGINX,作为HTTP Web服务器面向用户提供服务的常见配置及其含义,以及NGINX服务器在使用中常见的操作。NGINX(发音为 "engine-x")是一款开源的、高性能的HTTP和反向代理服务器,也可以用作邮件代理服务器。它最初由Igor Sysoev为俄罗斯的大型网站设计并开发,并于2004年首次公开发布。NGINX以其高性能、稳定性和丰富的功能集而闻名,尤其擅长处理高并发请求。
2025-04-07 23:00:08
553
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅