用AI+MCP带你玩转本地Office,跨文档协作 一句话一杯茶,工作竟如此轻松

今天给大家分享一个工作中真实有用的AI功能:大模型+MCP实现word、excel的协作,通过大模型直接在本地创建word文档,编辑excel文档。

先看效果,后面会有详细的配置过程。我这里使用的工具是Cherry Studio,模型使用的DeepSeek v3。用端午节南北方粽子对比这个例子来说明这次的功能。在这里我要求写一篇文章,并且文章中带有表格数据。

通过下图,可以看到MCP的工作过程,包括:创建文档、增加标题、增加表格等等。

图片

下图是大模型对于我的诉求的一个整体分析过程,这部分完全依赖于大模型的能力,所以选择优秀的大模型对于任务的完成还是很有必要的。

图片

在大模型运行完毕后,会在工具的安装路径下生成对应的文件。

下图是生成后的文档内容,太次了,没关系,因为我第一次描述的内容也没有具体说明文档要写到哪个程度,我们可以继续让大模型帮助修改。

图片

这里我要求模型丰富内容的输出,并将修改后的内容保存到之前的文档中。

图片

图片

在接收到修改要求后,大模型会对文章内容进行规划,列出详细的修改计划,并根据要去完善文章内容。

图片

图片

为了演示word、excel的联动功能,上文我特意要求生成的文档中包括大量的表格数据,接下来演示excel-MCP的功能。

这里我要求大模型继续将word中出现过的表格提取到excel中,如下图:

图片

可以看到在接收到命令后,模型开始调用excel-mcp服务来完成这项工作。这里要注意一点:要写成excel文件所在的绝对路径。

图片

图片

如上图,可以看到大模型将word中出现的表格已经通过MCP服务提取到我本地指定的excel中,并且sheet页的命名都已经修改过来了。

MCP配置说明

本例中使用到了2个MCP服务,一个是word-mcp,一个是excel-mcp,这两个服务均开源在Github。先来说word-mcp服务的配置。

有两种方式,一种是本地安装服务,另外一种是使用uvx直接使用,本地安装也不难,但是偷懒了,使用在线能力。下图是本地部署的方法。

图片

使用uvx方式配置很简单,打开Cherry Studio,找到MCP服务器,添加服务器,在里面如下图一样配置即可。

图片

配置完成后点击右上角的保存按钮,如果配置参数填写的没有错误,就会提示保存成功。之后就可以看到这个MCP都支持哪些能力。

图片

功能:文档管理 创建带有元数据的新 Word 文档 提取文本并分析文档结构 查看文档属性和统计信息 列出目录中的可用文档 创建现有文档的副本 将多个文档合并为一个文档 将 Word 文档转换为 PDF 格式内容创建 添加不同级别的标题 插入可选样式的段落 创建带有自定义数据的表格 添加按比例缩放的图片插入分页符 向文档添加脚注和尾注 将脚注转换为尾注 自定义脚注和尾注样式丰富文本格式化 格式化特定文本部分(粗体、斜体、下划线) 更改文本颜色和字体属性 将自定义样式应用于文本元素 在整个文档中搜索和替换文本表格格式化 用边框和样式格式化表格 创建具有不同格式的表头行 应用单元格阴影和自定义边框 构建表格以提高可读性高级文档操作 删除段落 创建自定义文档样式 在整个文档中应用一致格式 对特定文本范围进行详细控制格式化文档保护 向文档添加密码保护 实施可编辑区域的限制编辑 向文档添加数字签名 验证文档的真实性和完整性

excel-mcp服务的配置同样简单,见下图:

图片

在配置完成后,返回对话窗口,在下面的mcp服务器中选择刚刚配置好的。

图片

之后再与大模型对话,大模型就会根据需求自己选择调用合适的mcp服务了。

 如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

五、AI产品经理大模型教程

在这里插入图片描述

LLM大模型学习路线 

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

### Spring AIMCP 的集成概述 Spring AIMCP (Management Control Program 或其他可能含义) 可能涉及两种不同技术栈之间的协作。以下是关于如何实现两者之间潜在集成的些分析: #### 技术背景 - **Spring AI**: 这是个由 Spring 社区推出的框架,用于支持 Java 开发人员构建人工智能应用程序[^2]。它通过提供系列工具和库来简化机器学习模型的训练、部署以及与其他系统的交互。 - **MCP Hosts**: 根据描述,MCP 主机可以指代运行特定程序(如 Claude Desktop、IDE 工具或其他 AI 工具)并允许这些程序访问数据的服务或平台[^1]。 #### 集成可能性 为了使 Spring AI 能够与 MCP 成功集成,通常需要考虑以下几个方面: ##### 数据交换模式 种常见的做法是利用消息传递模式来进行通信。例如,在企业级架构设计中提到的消息队列模式可以帮助解决异构系统间的数据传输问题[^3]。具体来说,可以通过以下方式实现: - 使用 AMQP 协议或者 JMS 接口作为中间件连接 Spring AI 应用和服务端的 MCP 实体; - 设计标准化的消息格式以便于双方解析处理; ##### API 层面的支持 如果目标环境提供了 RESTful Web Service,则可以直接调用其公开接口完成所需操作。对于这种情况下的开发流程如下所示: ```java // 创建 RestTemplate 对象实例化 HTTP 请求客户端 RestTemplate restTemplate = new RestTemplate(); // 构建 URL 地址指向远程服务资源位置 String url = "http://example.com/mcp/resource"; // 发起 GET 方法请求获取响应实体对象 ResponseEntity<String> response = restTemplate.getForEntity(url, String.class); // 打印返回状态码及内容主体部分 System.out.println(response.getStatusCode()); System.out.println(response.getBody()); ``` ##### 插件扩展机制 当上述方案不适用时还可以探索插件形式加载额外功能模块的可能性。比如某些 IDE 平台就允许第三方开发者为其增添新特性从而增强整体用户体验效果。这种情况下就需要仔细阅读官方文档了解相关规范要求然后按照指引编写自定义组件提交审核上线发布供最终用户选用安装激活启用等功能选项卡界面布局调整等等细节都需要遵循既定规则执行才能确保兼容性和稳定性达到预期水平。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值