几道之旅
日更一年,静待花开
展开
-
windows下使用vscode+cline插件体验MCP,体验使用AI控制浏览器,踩坑记录(至少让你节省3个小时弯路版)(喂饭级别)
为什么网上天天说MCP,你这儿却一点动静都没有?1️⃣ 人家很早之前就用上了制定标准的Claude desktop,这玩意儿在咱这儿用不了。对策:使用vscode+cline+deepseek(或其它同级别国产大模型deepseek-V3其实有时比R1效果还好)2️⃣ 人家也Claude,但人家能用Cursor,咱太穷了,用不了。对策:使用vscode+cline+deepseek(或其它同级别国产大模型deepseek-V3其实有时比R1效果还好)有人说,我穷到deepseek都用不起怎么办?原创 2025-03-18 23:12:05 · 1652 阅读 · 0 评论 -
dify平台中的模型上下文长度和最大token上限分别是什么意思?对于deepseek-r1模型应该怎么设置?
通过以上配置,可充分发挥DeepSeek-R1在复杂推理任务中的优势,同时避免因参数设置不当导致的响应截断或计算资源过载问题。,决定了模型能“记住”的信息量。例如,若设置为4096,则整个对话(包括用户提问和模型回复)的Token总和不能超过该值,否则超出部分会被截断。,通常需小于等于上下文长度。例如设置为2048时,即使上下文总容量足够,模型生成的内容也不会超过2048个Token。:DeepSeek-R1为纯文本推理模型,若需图片理解能力需选择其他支持Vision的模型(如LLaVA)。原创 2025-03-13 11:03:03 · 2050 阅读 · 0 评论 -
Dify出1.0.1了,bug依旧没修复~Reached maximum retries (3) for URL unique_identifier=langgenius/ollama:0.0.3
👆我们现在的方法是,直接安装新版本,而不是升级。想看升级的,可在评论区留言。因为我是windows环境,所以,第一步还是打开我们的docker desktop。这一步,谁要是网络不通,也可以联系我哈,老规矩,我给你把我这边的直接传到阿里云上。趁着下载的空挡,发现人家又有新模型了,等有时间了再试哈~~在windows上,我们直接在图形化界面操作就好了。再试个更重的模型,也没有那个超时的问题了。稍等片刻后,我们打开dify,查看版本。找到咱刚下载的那个东西,就可以装好了。可以看到,我这个版本还是相当落后的。原创 2025-03-13 02:25:36 · 1509 阅读 · 0 评论 -
探索AI对冲基金:开源自动化交易系统的革新之路
本·格雷厄姆代理(Ben Graham Agent):价值投资之父,只购买有安全边际的隐藏价值股。比尔·阿克曼代理(Bill Ackman Agent):激进投资者,采取大胆立场并推动变革。凯西·伍德代理(Cathie Wood Agent):成长投资女王,相信创新和颠覆的力量。查理·芒格代理(Charlie Munger Agent):沃伦·巴菲特的合作伙伴,只在合理价格购买优秀企业。斯坦利·德鲁肯米勒代理(Stanley Druckenmiller Agent)原创 2025-03-10 17:27:57 · 749 阅读 · 0 评论 -
我把dify0.15.3传了一份到阿里云,兄弟们再也不必担心网络失败了。
我用的是windows,wsl,dockersdesktop。原创 2025-03-10 10:06:17 · 428 阅读 · 1 评论 -
升级到Dify v1.0.0后,用掉的Dify不要丢,将来还可以这样用,帮你一键回滚到之前的版本。
当你在深夜按下升级按钮的那一刻,命运的齿轮已经开始转动…原创 2025-03-09 08:24:09 · 488 阅读 · 0 评论 -
勇闯dify v1.0.0之设置模型供应商。解决:Reached maximum retries (3) for URL https://marketplace.dify.ai/
朋友们,大家好,今天带大家来勇闯dify v1.0.0。为什么叫勇闯呢?我就这么说吧,本来我昨天就想带大家勇闯v1.0.0的。但是dify的marketplace访问不了。公司的网和手机热点都试了,就是访问不了。我们连个模型都没有,还勇闯个球啊,对吧,就搁置了。今天,我赶紧看看这个marketplace好了没。一看,可以了。赶紧写下这篇博客,帮助同志们走出困境。原创 2025-03-08 08:38:38 · 2483 阅读 · 0 评论 -
dify智能体之不知道有啥用系列之使用chatflow让selenium打开特定网址
在探索Dify的自动化能力时,我们尝试将Selenium浏览器控制功能与ChatFlow结合,实现通过自然语言指令触发网页操作。今天咱实现一个hello world,也就是:使用chatflow让selenium打开特定网址。这也是受人之托写得一篇,因为知道肯定有人看,所以会认真写。还希望各位多多支持哈。原创 2025-03-04 23:06:38 · 580 阅读 · 0 评论 -
如何将hf-mirror.com作为vllm默认的下载源? conda如何移除虚拟环境?conda 如何复制一份虚拟环境?
上回咱说道,如果你没办法访问huggingface.co,则可以把modelscope作为vllm默认的下载源。但如果你非得用你用不了的huggingface.co呢?那你可以考虑将hf-mirror.com作为vllm默认的下载源。这里,hf-mirror.com和huggingface.co的效果是一样的。此设置对所有基于Hugging Face库的下载生效,包括vLLM。建议将此命令写入~/.bashrc或~/.zshrc实现永久生效。执行下载时观察终端输出,若显示域名即配置成功。token。原创 2025-03-03 18:54:11 · 335 阅读 · 0 评论 -
windows下玩转vllm:vllm装好了,怎么使用?
上回说道,通过wsl,vllm是可以跑起来的。便可以启动一个vllm的服务。显示完表示,我们的服务已经启动完了。原创 2025-03-03 11:09:04 · 759 阅读 · 0 评论 -
windows下玩转vllm:在wsl下安装vllm后续,设置modelscope作为下载源
之前,咱们说了,由于windows不支持直接部署vllm,所以要么采用wsl,要么采用docker。我们目前尝试的是在wsl下进行vllm的安装。原创 2025-03-02 22:48:08 · 934 阅读 · 0 评论 -
windows下玩转vllm:在wsl下安装vllm
当前,部署通义千问2.5-vl已经是一件箭在弦上,不得不发的事儿了。网上搜了一下,发现还是用vllm用的比较多。于是乎,这就开始尝试部署vllm。但是我们之前说了,vllm是不支持直接在windows上部署的,我们还得搞wsl或者docker。咱今天先尝试使用wsl进行安装哈。原创 2025-03-01 23:49:51 · 1567 阅读 · 1 评论 -
windows下玩转vllm:vllm简介;Windows下不能直接装vllm;会报错ModuleNotFoundError: No module named ‘vllm._C‘
之前做大模型的本地部署,一直都用的ollama。ollama给我的感觉就是,特别方便,几步就可以把大模型部署好。但我看别人都用的vllm,感觉逼格更高一些。所以也就尝试一下。vLLM(Virtual Large Language Model)是一个由加州大学伯克利分校的LMSYS组织开发的开源大语言模型高速推理框架。它旨在提升实时场景下语言模型服务的吞吐量和内存使用效率,特别适合于需要高效处理大量并发请求的应用场景。原创 2025-02-05 19:35:21 · 4843 阅读 · 2 评论 -
ollama竟然可以直接加载huggingface上的gguf格式的模型?还支持通过镜像网站对下载过程加速?
当开发者们还在为模型部署的复杂流程焦头烂额时,Ollama在2024年10月的史诗级更新彻底改写了游戏规则。这个被称为"AI界的Docker"的工具,不仅实现了对HuggingFace Hub上45,000+个GGUF格式模型的一键加载,还贴心地为中国开发者打通了镜像加速通道。本文将深度解析这项技术突破的底层逻辑,并手把手教你玩转这两个革命性功能。SYSTEM "你是一个专业的中文法律顾问"原创 2025-02-27 23:50:05 · 328 阅读 · 0 评论 -
什么是Ollama?什么是GGUF?二者之间有什么关系?
GGUF(GPT-Generated Unified Format)是由llama.cpp创始人Georgi Gerganov提出的二进制文件格式,专为优化大模型的本地加载和推理效率设计。Ollama 是一款开源工具,专注于在本地环境中快速部署和运行大型语言模型(LLM)。它通过极简的命令行操作简化了模型管理流程,支持离线运行、多模型并行、私有化部署等场景。Ollama的模型推理能力基于llama.cpp实现,而llama.cpp的核心功能是加载和运行GGUF格式的模型。原创 2025-02-27 23:45:38 · 183 阅读 · 0 评论 -
诡异报错,uvicorn,playwright,报错:NotImplementedError
再粘一遍文本,方便报错的人,都能找到这一篇,哈哈。咱反正,先这么对付对付,后续再研究真正的原理吧。等我闲下来,我也去看。今天太忙了,先就算了。不过解决方案就是,不要使用reload。不加reload,真滴不会报错。加了reload之后,画风突变。👆诺,大概就是这个鬼样子。更复杂的,咱就不知道了。看起来也是似懂非懂啊。原创 2025-02-26 22:53:57 · 152 阅读 · 0 评论 -
Dify创建自定义工具实践,这里如果不熟悉估计会被折磨得不轻,建议一步一步跟着操作
今天让同事帮我把一些写好的函数,使用fastapi封装成rest服务,再注册到dify的自定义工具。结果都两天了,还没弄完。因为之前搞过这一块,所以不觉得会花这么久。实在无奈,下班了看看是怎么回事。结果发现,这部分要是不熟悉,真的有不少的坑啊。因此,新手建议,按照此教程,一步一步地走,保证你能成功。等你了解了原理,再根据自己的实际情况,一步步注册自己的自定义工具。在dify的界面上,以此选择工具➡创建自定义工具图标可以改,名称也好说,关键是这个schema。原创 2025-02-24 19:41:26 · 2544 阅读 · 5 评论 -
为什么是它?DeepSeek的天时、地利与人和
2025年春节前后,DeepSeek的爆火不仅是一场技术狂欢,更折射出中国AI产业发展的深层逻辑。本文将从三个维度,解析这个现象级AI产品的崛起密码。原创 2025-02-23 21:02:44 · 60 阅读 · 0 评论 -
langflow如何查看中间步骤的输出
上回咱说道,不知道怎么看langflow如何查看中间步骤的输出。后来研究了一下,还是蛮简单的。原创 2025-02-22 19:54:29 · 72 阅读 · 0 评论 -
在LangFlow中集成OpenAI Compatible API类型的大语言模型
LangFlow作为LangChain的可视化开发工具,其最大优势在于无需编写代码即可构建复杂的大模型应用。随着开源生态发展,越来越多的模型服务(如Ollama、硅基流动、DeepSeek、百度千帆等)开始兼容OpenAI API格式。就比如这个OpenAI Compatible API,这不应该是基本操作嘛?从Dify换到这个langflow真的时各种的不适应啊。打开:http://localhost:7860/算了,服了,习惯了就好了。(我用的是千帆的API)错了几百次,终于成功了。原创 2025-02-22 19:18:13 · 394 阅读 · 0 评论 -
LangFlow部署指南:Windows平台实战
LangFlow是基于LangChain构建的开源可视化工具,通过拖拽式界面快速搭建LLM应用原型。作为AI工作流编排工具,它支持实时调试Prompt模板、链式调用和模型组合,是开发者探索大语言模型的理想起点。原创 2025-02-21 19:21:14 · 465 阅读 · 0 评论 -
Langflow与Dify对比:低代码LLM应用开发平台如何选择?
维度Langflow优势Dify优势开发效率快速原型设计全流程自动化灵活性代码级控制标准化模板运维成本需自行部署开箱即用的监控和扩缩容学习曲线需理解LangChain概念无代码配置,产品经理友好建议个人开发者或小团队验证创意,优先使用Langflow。企业需要长期维护的生产级应用,选择Dify更高效。两者可结合使用:用Langflow设计工作流,导出代码后通过Dify部署。原创 2025-02-21 18:47:39 · 1312 阅读 · 0 评论 -
Dify平台接入博查实现deepseek-r1联网搜索,效果展示
关于为本地化部署deepseek-r1增加联网功能,其实是一个很强的刚需。怎奈搜索这种东西,它大概率是要花钱的。不过咱上一篇已经大概分享了,我们可以借助会使用浏览器的智能体,来替我们对关键词进行百度。这也算是曲线救国。但不知道其中是否有法律风险。所以,如果是公司行为,尤其是大公司,建议,要不还是花点儿钱?当时,大模型给推荐的这个:博查。就试用了一番。原创 2025-02-20 19:55:11 · 1691 阅读 · 0 评论 -
兄弟们,我的deepseek终于可以控制浏览器了:Part 1/n,含代码
其实,deepseek控制浏览器咱之前就发过,只不过当时没有想到这么好的标题,哈哈。所依赖的,依然是Browser Use这个项目Browser Use项目官网。原创 2025-02-20 19:35:10 · 1156 阅读 · 0 评论 -
Python编程中什么是decorator?为什么要使用decorator?以及编程实例
装饰器是Python中一种动态增强函数功能的设计模式。它本质上是一个高阶函数,接受一个函数作为输入,返回一个新函数。通过@语法糖,我们可以优雅地为原函数添加新功能,而无需修改其源代码。场景装饰器作用优势对比传统方法日志记录自动记录函数调用信息无需在每个函数内写print权限控制统一校验用户权限业务代码更纯净性能优化缓存结果或限制函数调用频率避免重复计算装饰器就像代码的“魔法插件”,让功能扩展变得灵活且优雅。掌握它,你的Python代码将更简洁、更强大!原创 2025-02-19 18:58:03 · 42 阅读 · 0 评论 -
使用browser use自动打开浏览器页面
通过库,我们可以用简洁的Python代码实现复杂的浏览器自动化操作。该库的异步特性使其特别适合需要高性能并发的场景,相比传统工具(如Selenium)具有更低的资源占用和更高的执行效率。后续可以结合Pytest等测试框架构建完整的自动化测试解决方案。原创 2025-02-18 18:51:56 · 1487 阅读 · 0 评论 -
什么是全零监听?为什么要全零监听?如何修改ollama配置实现全零监听?风险是什么?怎么应对?
全零监听(全链路监听)是指服务监听地址配置为0.0.0.0或,表示允许服务绑定到本机所有网络接口的IP地址上。这种配置会开放所有网卡的端口,使服务能够接收来自任意IP地址的请求。原创 2025-02-18 18:06:25 · 252 阅读 · 0 评论 -
异步IO是什么?啥是事件循环?什么是协程?
IO请求是程序与外部设备(如磁盘、网络、键盘等)进行数据交互时向操作系统内核发起的系统调用。例如读取文件内容或发送网络数据时,程序会通过系统调用请求内核完成实际的输入/输出操作。等待资源阶段:内核检查设备是否就绪(如磁盘是否找到数据)使用资源阶段:内核将数据从设备缓冲区复制到用户空间阻塞指程序在等待IO操作完成时暂停执行后续代码,直到操作完成。同步阻塞IO:程序调用read()读取文件时,若数据未准备好,线程会挂起等待,无法处理其他任务生活类比:排队买奶茶时,必须站在原地等待制作完成才能离开。原创 2025-02-17 19:34:11 · 209 阅读 · 0 评论 -
Python编程中,async/await/asyncio分别是干啥的?
使用async def定义协程函数,这类函数不会立即执行,而是返回协程对象。在Python中,协程(Coroutine)是一种用于实现并发编程的技术,它允许程序在执行过程中暂停并恢复执行,而不会丢失当前的执行上下文。协程可以被视为一种特殊的函数,这种函数可以在执行过程中被挂起,并且稍后可以从挂起的地方继续执行。原创 2025-02-17 18:51:31 · 56 阅读 · 0 评论 -
dify新版,chatflow对deepseek的适配情况
我们已经知道了,最新版的dify支持了deepseek可以think的特性。那在chatflow这个方面表现如何呢?原创 2025-02-16 21:46:45 · 658 阅读 · 0 评论 -
最新版dify有什么新玩意儿?(当前时间节点是2025年2月16日)——适配了deepseek-r1的think的打开和隐藏
但众所周知,deepseek-r1的7b版本,全称是DeepSeek-R1-Distill-Qwen-7B,实际是基于Qwen-7B对DeepSeek-R1的蒸馏。新特性就是,这个thinking可以自己选择打开或者隐藏。只能说,这个界面跟咱之前看的,还是差别很大的。我准备跑一个deepseek-r1的7b版本。下面是把ollama的模型注册到dify上。有个感叹号,没关系,刷新一下浏览器页面。坏消息是,这个参数量的模型效果不咋地👇。设置邮箱,用户名,以及密码。都是常规操作,不再赘述。但是,换汤不换药哈。原创 2025-02-16 14:56:08 · 1134 阅读 · 0 评论 -
AI智能体,AI computer use:浏览器使用(Browser Use)项目实际体验,deepseek r1,百度云,满血版
Agent项目中,一个重要的组成部分便是电脑使用。甚至,我感觉,对于openai这种的,实力比较强的公司,电脑使用几乎可以70%地与Agent划等号。只有这种级别的Agent应用才好意思拿出来show。在计算机使用中,浏览器使用(Browser Use)又占了绝大部分。因为浏览器实在是功能太强大了。Browser Use项目官网Browser Use 是一个创新性的开源项目,旨在通过将先进的AI技术与浏览器自动化功能深度融合,使AI代理能够像人类一样自然地浏览和操作网页。原创 2025-02-14 17:29:38 · 1177 阅读 · 0 评论 -
昇腾,Ascend,NPU,mindie,镜像,部署vllm:第5篇,昇腾环境下部署蒸馏版deepseek-r1,并在dify中注册模型供应商
这两天没少折腾deepseek-r1。之前在A100上用ollama部署了一份DeepSeek-R1-Distill-Qwen-32B,感觉真的特别慢。现在,再用昇腾部署一遍,看看速度能不能更快。p.s. 类似的内容其实已经写了很多遍了。但感觉之前写得都太碎,不够顺畅。接着新模型写篇长文,把能包括的都包括进来。这样大家也不需要到处翻来翻去。原创 2025-02-11 19:15:16 · 1593 阅读 · 0 评论 -
昇腾,Ascend,NPU,mindie,镜像,部署vllm:第4篇,尝试多模态大模型部署(Qwen2-vl)
一直想部署一个多模态大模型,今天就以Qwen2-vl为例尝试一番吧。(当然是在昇腾环境下)提示:需要把这篇文章先看一遍昇腾,mindie,镜像,部署vllm:第2篇,启动mindieservice_daemon服务,支持对Qwen2.5的7B版本的推理提示:本文章的撰写思路是,按照一个思路进行部署,报错,并反思,并解决。所以不太适合直接上来就跟着一步一步做。建议看完全文,再根据自己的理解做。原创 2025-02-10 19:01:48 · 1453 阅读 · 0 评论 -
免费deepseek-r1满血版部署:百度千帆大模型平台+Dify添加相应的模型供应商
这两天头条全是deepseek的消息,其实我们一上班也开始搞这个了。不管怎么说,本地部署一番总是少不了的。英伟达GPU版本下,ollama部署蒸馏版,这个还蛮简单的,咱就不说了。不过推理速度好像挺慢的英伟达GPU版本下,ollama部署满血量化版。网上有教程,但确实还是没成功,光下载权重下载了好几天昇腾NPU下,部署蒸馏版或者满血版。没实现呢。看到有人说昇腾部署满血版,需要四台机器,32张卡,不知道真的假的云服务部署满血版。本来想赶紧实现了,写出来,蹭一番热度,奈何多线开工,一个都没整出来。原创 2025-02-08 18:39:56 · 1977 阅读 · 0 评论 -
昇腾,mindie,镜像,部署vllm:第2篇,启动mindieservice_daemon服务,支持对Qwen2.5的7B版本的推理
上一篇,咱们顺利启动了mindie的官方镜像,用上了1.0.0目前我们所在的位置在gitee的一个文档上,我们跟着官网继续后面的步骤。当前文档希望咱能踩到几个坑哈,这样咱的文章才有意义。原创 2025-02-06 11:13:04 · 926 阅读 · 0 评论 -
自制免费联网搜索API供AI使用
通过上述方法,即使是个人开发者也能轻松地为AI系统添加联网搜索能力,而无需依赖昂贵的专业服务。无论是利用DuckDuckGo API还是通过Selenium爬取搜索引擎,都为实现这一目标提供了可行的途径。未来,随着技术的进步,相信会有越来越多的低成本甚至零成本解决方案出现,进一步推动AI技术的发展与普及。请注意,在实际应用过程中,考虑到网站的反爬虫策略,可能需要采取额外措施以规避检测,比如随机化请求间隔、模拟真实浏览器行为等。同时,始终遵守相关法律法规和服务条款,尊重网站的robots.txt文件规定。原创 2025-01-24 07:18:50 · 1666 阅读 · 0 评论 -
在Dify平台中集成并显示本地图片:含代码,直接能跑
随着AI技术的发展,越来越多的应用程序开始利用大语言模型(LLM)来增强用户体验。Dify作为一个强大的开源LLM应用开发平台,提供了丰富的功能来帮助开发者快速构建生成式AI应用。本文将介绍如何结合现有的Web服务,通过Dify的工作流和HTTP请求组件,在Dify平台上实现本地图片的显示。通过上述步骤,我们成功地在Dify平台上集成了一个简单的图片显示功能。这个过程不仅展示了Dify的强大灵活性,也证明了它与其他Web服务之间的良好兼容性。原创 2024-12-11 23:45:29 · 3428 阅读 · 5 评论 -
linux环境下安装docker,不保证成功版
这个内容想必网上一搜一大堆。所以我特别希望能报个错啥的,这样,咱可以把报的错和解决方案记录下来。闲话少叙,咱正片开始!原创 2025-01-22 09:35:03 · 375 阅读 · 0 评论 -
dify进阶:使用 FastAPI 的 StreamingResponse 实现高效的数据流传输
在 FastAPI 框架中,是一个非常有用的工具,它允许你以流的方式发送数据给客户端,而不是一次性加载所有内容到内存中再发送。这对于处理大型文件下载、视频流或者任何需要长时间处理的任务特别有用。原创 2025-01-16 23:40:33 · 817 阅读 · 0 评论