思源笔记轻松连接本地Ollama大语言模型,开启AI写作新体验!

前言

今天我们要聊聊如何通过cpolar内网穿透技术,把国产笔记软件思源和本地的大语言模型Ollama连接起来,轻松实现远程辅助写作。希望这篇文章能给你带来一些实用的启发,帮助你更高效地利用技术提升写作质量!

现在,越来越多的小伙伴在工作和学习中都开始用笔记软件来管理知识和创作。而在这些软件中,思源笔记凭借其强大的编辑功能、灵活的整理方式和丰富的插件支持,成为了大家的心头好。

不过,写作的时候,灵感和创意的激发往往需要大语言模型的助力。大语言模型可以根据海量文本数据生成高质量的内容,为你提供有价值的参考和启发。但传统的在线大语言模型服务可能会面临数据隐私泄露、网络延迟等问题,让一些用户却步。

那么,解决这个问题的办法是什么呢?我们可以考虑将国产软件思源与本地部署的大语言模型Ollama进行对接。Ollama是一款高性能的大语言模型,能够为你提供准确、快速的文本生成服务。但如何实现远程访问和对接,确实是个挑战。

别担心,cpolar内网穿透技术来救场了!cpolar是一种基于反向代理的内网穿透工具,可以将本地计算机的服务暴露到公网上,让外部网络轻松访问。通过cpolar,我们就能把本地部署的Ollama大语言模型服务暴露给远程的思源笔记软件,实现远程对接,助力你的写作之旅!准备好了吗?让我们一起开启这段AI辅助写作的新旅程吧!

1. 下载运行Ollama框架

进入Ollama Github 界面:https://github.com/ollama/ollama?tab=readme-ov-file ,我们选择Windows版本下载

image-20240425174856953

下载后,双击进行安装,默认会安装到C盘,然后等待安装完成,安装完成后正常会自动运行,如果没有运行,可以去应用列表双击运行即可

image-20240425161045182

然后打开命令窗口,输入:ollama -v,可以看到版本信息

image-20240425161026879

同样,在浏览器输入http://127.0.0.1:11434/访问ollama服务,即可看到,运行的字样,表示本地运行成功了,下面进行安装大语言模型.

image-20240425163201117

2. Ollama下载大语言模型

ollama安装完成后,下面进行下载运行大语

评论 15
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Yawesh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值