【我不允许还有人WPS接入deepseek不成功!附源码及详细教程】

我不允许还有人WPS接入deepseek不成功!附源码及详细教程

一、写在前面

今天刚好兴趣来了,想试试在wps中接入本地部署的deepseek大模型,网上看了很多帖子,评论区清一色不成功,于是用deepseek生成了一下代码,测试成功,记录一下。
安装测试环境:win11+wps365+ollama+deepseek1.5b。

二、本地化部署ollama+deepseek

参考我的这篇文章:Windows系统基于ollama+anythingLLM本地化部署deepseek 第二、三章节。

三、配置WPS

1、宏安全性设置
新建文档、打开工具、宏安全性,设置为低,确定。点击开发工具。如无此按钮,需在文件、选项、自定义功能区中将缺失按钮勾选。
在这里插入图片描述
在这里插入图片描述
2. 插入代码

打开VB编辑器
在这里插入图片描述
方式一: 文件导入
下载下面百度网盘文件后,选择左上角文件、导入文件,选择所下载的文件。

链接: https://pan.baidu.com/s/16pOZ2WGyOHgG8EfJJZcluA?pwd=2468 提取码: 2468

方式二: 代码编辑
点击插入、模块、修改模块名为deepseek。
在这里插入图片描述
复制以下代码并粘贴至编辑区并保存。
在这里插入图片描述

// wps调用本地ollama代码。
Function CallOllamaAPI(inputText As String) As String
    Dim API As String
    Dim SendTxt As String
    Dim Http As Object
    Dim status_code As Integer
    Dim response As String
    
    ' 修改为本地Ollama接口地址
    API = "http://127.0.0.1:11434/api/chat"
    
    ' 调整请求JSON结构适配Ollama,修改model名称。
    SendTxt = "{""model"": ""deepseek-r1:1.5b"", ""messages"": [" & _
              "{""role"
### Ollama与WPS集成概述 对于希望提升办公效率并利用机器学习模型能力的用户而言,在本地环境中将Ollama集成至WPS是一个值得探索的方向。然而,目前官方渠道并未提供直接针对此需求的支持方案[^1]。 #### 技术可行性分析 考虑到Ollama主要作为一个AI平台用于开发和部署自定义的语言模型服务,而WPS则是集成了文字处理、表格制作等功能的传统办公软件套件;两者之间的集成并非简单的插件安装可以实现。通常情况下,这种跨应用的功能扩展需要通过API接口或者中间件来完成数据交互和服务调用[^2]。 #### 实现路径建议 一种可能的方式是借助于第三方工具或编写脚本程序作为桥梁连接二者: - **RESTful API**:如果Ollama提供了对外部访问开放的标准HTTP请求响应机制,则可以通过发送特定格式的消息给定端口上的服务器实例获取所需功能支持; - **宏命令/自动化脚本**:部分版本的WPS允许用户录制或编程执行一系列操作指令形成自动化的流程,这或许能用来触发外部应用程序的动作从而间接达到目的[^3]。 ```python import requests def call_ollama_api(text_input): url = "http://localhost:8080/api/v1/process" payload = {"text": text_input} response = requests.post(url, json=payload) if response.status_code == 200: result = response.json() return result['output'] else: raise Exception("Failed to get a valid response from the server.") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值