loong_XL
这个作者很懒,什么都没留下…
展开
-
智能体MCP 实现数据可视化分析
参考:WPS软件上的表格分析阿里mcp:https://developer.aliyun.com/article/1661198 (搜索加可视化)原创 2025-04-22 14:58:16 · 143 阅读 · 0 评论 -
langchain 搭建MCP客户端自动调用MCP应用案例
参考:https://deepseek.csdn.net/67f1e1afeb072863e39c011d.htmlMCP服务端应用创建一个python文件,命名为math_server.pyMCP客户端创建一个python文件,命名为math_client.py运行使用先运行math_server.py,再运行math_client.py,进行AI对话,观察日志输出结果,确定是否调用了自定义的MCP Server服务原创 2025-04-11 14:28:23 · 72 阅读 · 0 评论 -
OpenAI Agents SDK mcp使用案例
参考:OpenAI Agents SDK 官方支持mcp协议。原创 2025-03-27 15:52:10 · 132 阅读 · 0 评论 -
MCP Server开发自定义案例-python版
参考:https://www.cnblogs.com/ryanzheng/p/18781666https://www.cnblogs.com/mingupupu/p/18745928https://github.com/modelcontextprotocol/python-sdkserver_test.py用上mcp.run()就可以python运行windows配置原创 2025-03-25 15:07:48 · 286 阅读 · 2 评论 -
cline mcp智能体应用使用案例
1、windows 遇到:Connect MCP Servers error"spawn npx enoent" 错误。MCP是一种协议,cline、claude等相当于客服端,调用mcp相关服务器应用(各种智能体工具)参考:https://github.com/cline/cline/issues/1948。MCP客服端(cline)相当于浏览器,MCP服务器(各种智能体工具)相当于独立网站应用。vscode 下载插件安装cline。cline市场查看安装mcp服务器。首先设置cline模型底座。原创 2025-03-12 17:39:37 · 327 阅读 · 0 评论 -
Kokoro-82M TTS 实时语音合成api案例
参考:支持语言与声音:https://huggingface.co/hexgrad/Kokoro-82M/blob/main/VOICES.md1.0版本z中文f女生m男生。原创 2025-02-28 14:48:22 · 319 阅读 · 0 评论 -
LLM大模型通过Mixture-of-LoRAs引入支持多模态Phi-4-multimodal-instruct
语音和图像分别作为独立的lora,然后MOE形式可以选择走具体路线。结合了MOE框架实现。原创 2025-02-27 09:22:09 · 88 阅读 · 0 评论 -
阿里巴巴免费文生视频Wan、音乐生成InspireMusic
有1.3和14B两个模型大小,1.3B只要10G显存既可以运行。原创 2025-02-26 13:55:53 · 201 阅读 · 0 评论 -
TTS: Kokoro-82M 中文使用案例
在线demo:用的colab t4卡免费。原创 2025-02-05 08:47:36 · 1082 阅读 · 0 评论 -
dify类工作流支持图像文件上传聊天;表格报表分析输出图表案例
参考:主要就是sys参数。原创 2025-01-16 10:14:52 · 2788 阅读 · 0 评论 -
smolagents huggingface出品agents工具使用案例
参考:https://github.com/huggingface/smolagentstransformers-4.47.1 升级到版本解决(错误:ImportError: cannot import name ‘define_import_structure’ from ‘transformers.utils.import_utils’)使用:使用第三方deepseek模型,注意litellm使用接口参数(deepseek/deepseek-chat全称):https://docs.litell原创 2025-01-03 10:20:47 · 197 阅读 · 0 评论 -
多模态向量模型ColPali、jina-clip-v2、MiniCPM-V-Embedding
参考:https://github.com/RhapsodyAILab/MiniCPM-V-Embedding (类似clip模型)其他多模态向量模型:ColPali (ocr free模型)感觉效果比MiniCPM-V-Embedding好点。原创 2024-12-25 10:37:31 · 126 阅读 · 0 评论 -
minicpm 多模态RAG构建案例
方案:MiniCPM-V-Embedding 作为向量模型MiniCPM-V 多模态大模型。原创 2024-12-25 09:38:35 · 454 阅读 · 0 评论 -
edge_tts 实现实时流式语音播放输出
【代码】edge_tts 实现实时流式语音播放输出。原创 2024-12-17 15:33:34 · 1023 阅读 · 0 评论 -
ASR-LLM-TTS 实时语音对话助手:语音识别、大模型对话、声音生成
参考:https://blog.csdn.net/weixin_42357472/article/details/137020794。asr:funasr-SenseVoiceSmall 离线。llm:deepseek 在线api。tts:edge-tts 在线api。原创 2024-12-17 11:37:27 · 967 阅读 · 0 评论 -
RAG知识库 Ragas效果评估框架
context_recall:是否检索到了回答问题所需的所有相关信息,提供的回答正确地解决了问题并与真实情况一致,表明上下文精度和召回率很高。faithfulness:生成答案的事实准确性,得分为 0.75,表明尽管答案大部分是准确的,但可能存在细微的不完整之处。answer_relevancy:生成答案与问题的相关性。相关性得分非常高(0.995013),表明答案与问题高度相关。context_precision:检索到的上下文的准确度。用的langchain,使用的deepseek模型。原创 2024-12-16 15:33:42 · 112 阅读 · 0 评论 -
KWS实时语音唤醒词实现funasr
【代码】KWS实时语音唤醒词实现funasr。原创 2024-12-15 19:07:49 · 836 阅读 · 2 评论 -
clearvoice 语音降噪、语音分离库
参看:ClearVoice 提供了一个统一的推理平台,用于语音增强、语音分离以及视听目标说话人提取。代码参看:声音降噪加强支持16k 48k采样。原创 2024-12-15 13:02:39 · 702 阅读 · 0 评论 -
qwen2.5 模型JSON格式化输出案例
参考:https://docs.vllm.ai/en/latest/usage/structured_outputs.html。参考:https://ollama.com/blog/structured-outputs。用的Qwen/Qwen2.5-3B-Instruct模型。原创 2024-12-10 15:54:55 · 986 阅读 · 0 评论 -
LLM 大模型RAG 多轮回答问题准确率优化:问题改写
有时候多轮进行上下文关联变弱,比如前面问北京的天气,后面问广州的呢,可能前面大模型回答内容过多一起上下文给到会导致后面多轮识别产生错误。解决方法:可以把用户问题单独取出来做处理,根据前面问题通过大模型prompt形式改写当前问题。原创 2024-12-05 14:52:16 · 438 阅读 · 0 评论 -
Xinference 推理框架工具使用,openai 语音asr、tts接口调用案例
参考:Xinference,一款 LLM、嵌入模型和多模态模型在云端或本地环境中运行推理工具,类比ollama、vllm;但他支持语音、文字、图像、视频模型等推理。原创 2024-12-03 16:16:31 · 491 阅读 · 0 评论 -
unsloth vlm模型Qwen2-VL、Llama 3.2 Vision微调案例
按自己显卡cuda版本安装。T4卡15G显卡训练。原创 2024-11-22 09:10:40 · 662 阅读 · 0 评论 -
多模态统一图像理解与图像生成:JanusFlow、Liquid
测试T4 15G显存可以使用,图像描述理解显卡需求相对较少,图像生成大概8-10G左右,但是生成时间比较久3-5分钟。原创 2024-11-20 17:59:03 · 369 阅读 · 0 评论 -
qwen2.5 ollama推理;openai function call调用中文离线agents使用
【代码】qwen2.5 ollama推理;openai function call调用中文离线agents使用。原创 2024-10-19 18:26:35 · 901 阅读 · 0 评论 -
dify 大模型开源应用框架使用案例,api调用,添加asr、tts服务
参看:https://github.com/langgenius/dify下载安装:https://docs.dify.ai/getting-started/install-self-hosted/docker-compose首先访问先设置帐号密码web访问1、模型配置右侧设置里https://docs.dify.ai/zh-hans/development/models-integration/ollama添加ollama报错,因为部署dify是容器里访问外面,解决方法:syste原创 2024-10-19 17:03:04 · 2174 阅读 · 0 评论 -
2d 数字人实时语音聊天对话使用案例;支持asr、llm、tts实时语音交互
参考:https://github.com/lyz1810/live2dSpeekindex.html增加后端asr、llm、tts的api服务backed.py项目运行打开页面原创 2024-10-17 15:44:48 · 721 阅读 · 0 评论 -
TEI text-embeddings-inference文本嵌入模型推理框架
参看:文本嵌入模型榜单。原创 2024-10-16 20:03:06 · 492 阅读 · 0 评论 -
live2d 实时虚拟数字人形象页面显示,对接大模型
运行的话还需要额外下载https://github.com/lyz1810/edge-tts支持语音。原创 2024-10-15 17:01:29 · 1174 阅读 · 0 评论 -
2d实时数字人聊天语音对话使用案例,对接大模型
gally选项里可以更换数字人形象和背景。添加deepseek大模型接口。原创 2024-10-14 22:03:51 · 1127 阅读 · 0 评论 -
openai swarm多智能体框架使用案例;调用第三方deepseek大模型接口服务
具体模型model写在下面代码Agent里指定:model=“deepseek-coder”,原创 2024-10-14 17:49:04 · 724 阅读 · 0 评论 -
openvino 大模型qwen2.5推理案例
参数参看https://huggingface.co/docs/optimum/intel/openvino/export。原创 2024-10-07 16:19:41 · 469 阅读 · 0 评论 -
agent实现:通过prompt方式实现agent自定义使用
参看:通过prompt形式,基本任何llm模型都可以使用来自定义agent,不用只能那些支持functioncall的大模型的,更灵活自由。原创 2024-10-07 11:06:04 · 660 阅读 · 0 评论 -
图像转3D视差视频:DepthFlow、kling
参看:通过深度图实现图像3d效果。原创 2024-10-05 10:34:37 · 310 阅读 · 0 评论 -
实时数字人DH_live使用案例
但播放自己特征的数字人口效果不是很好,嘴看着有些奇怪。结果视频没有声音,用ffmpeg吧声音合并。结果保存在video_data/下面。3)运行实时数字人,暂时没有声音。2)运行demo合成视频。原创 2024-09-26 22:08:14 · 1485 阅读 · 0 评论 -
3d可视化图片:通过原图和深度图实现
#然后页面打开:http://localhost:8000;效果没有上面的depthy好。原创 2024-09-24 10:02:50 · 618 阅读 · 0 评论 -
pgvector docker版安装;稀疏向量使用;psycopg2 python连接使用
参看:https://cloud.tencent.com/developer/article/2359831https://hub.docker.com/r/pgvector/pgvector/tagshttps://github.com/pgvector/pgvector拉取运行:连接:1)安装客户端2)连接https://github.com/pgvector/pgvector1)稠密向量2)稀疏向量原创 2024-09-21 17:29:29 · 1178 阅读 · 0 评论 -
RAG新思路降低检索错误率:为文档划分的每个块进行大模型上下文构建
【代码】RAG新思路降低检索错误率:为文档划分的每个块进行大模型上下文构建。原创 2024-09-20 16:58:07 · 109 阅读 · 0 评论 -
qwen2.5 vllm推理;openai function call调用中文离线agents使用
参考:运行:运行调用tools报错,qwen官方说会尽快修复增加 /ai/template.jinja 文件。原创 2024-09-19 12:46:28 · 1766 阅读 · 1 评论 -
vllm 部署qwen2.5-7b;opeanai 接口访问、requests接口
参考:https://qwenlm.github.io/zh/blog/qwen2.5/https://huggingface.co/Qwen/Qwen2.5-7B-Instruct下载:vllm部署:流式非流式原创 2024-09-19 13:26:02 · 900 阅读 · 0 评论 -
BGE-M3稠密向量、稀疏向量使用案例;bge-reranker使用案例
【代码】BGE-M3稠密向量、稀疏向量使用案例。原创 2024-09-19 11:23:20 · 1365 阅读 · 0 评论