loong_XL
这个作者很懒,什么都没留下…
展开
-
qwen2.5 ollama推理;openai function call调用中文离线agents使用
【代码】qwen2.5 ollama推理;openai function call调用中文离线agents使用。原创 2024-10-19 18:26:35 · 425 阅读 · 0 评论 -
dify 大模型开源应用框架使用案例,api调用
参看:https://github.com/langgenius/dify下载安装:https://docs.dify.ai/getting-started/install-self-hosted/docker-compose首先访问先设置帐号密码web访问1、模型配置右侧设置里https://docs.dify.ai/zh-hans/development/models-integration/ollama添加ollama报错,因为部署dify是容器里访问外面,解决方法:syste原创 2024-10-19 17:03:04 · 258 阅读 · 0 评论 -
2d 数字人实时语音聊天对话使用案例;支持asr、llm、tts实时语音交互
参考:https://github.com/lyz1810/live2dSpeekindex.html增加后端asr、llm、tts的api服务backed.py项目运行打开页面原创 2024-10-17 15:44:48 · 269 阅读 · 0 评论 -
TEI text-embeddings-inference文本嵌入模型推理框架
参看:文本嵌入模型榜单。原创 2024-10-16 20:03:06 · 133 阅读 · 0 评论 -
live2d 实时虚拟数字人形象页面显示,对接大模型
运行的话还需要额外下载https://github.com/lyz1810/edge-tts支持语音。原创 2024-10-15 17:01:29 · 655 阅读 · 0 评论 -
2d实时数字人聊天语音对话使用案例,对接大模型
gally选项里可以更换数字人形象和背景。添加deepseek大模型接口。原创 2024-10-14 22:03:51 · 783 阅读 · 0 评论 -
openai swarm多智能体框架使用案例;调用第三方deepseek大模型接口服务
具体模型model写在下面代码Agent里指定:model=“deepseek-coder”,原创 2024-10-14 17:49:04 · 243 阅读 · 0 评论 -
openvino 大模型qwen2.5推理案例
参数参看https://huggingface.co/docs/optimum/intel/openvino/export。原创 2024-10-07 16:19:41 · 367 阅读 · 0 评论 -
agent实现:通过prompt方式实现agent自定义使用
参看:通过prompt形式,基本任何llm模型都可以使用来自定义agent,不用只能那些支持functioncall的大模型的,更灵活自由。原创 2024-10-07 11:06:04 · 479 阅读 · 0 评论 -
图像转3D视差视频:DepthFlow、kling
参看:通过深度图实现图像3d效果。原创 2024-10-05 10:34:37 · 226 阅读 · 0 评论 -
实时数字人DH_live使用案例
但播放自己特征的数字人口效果不是很好,嘴看着有些奇怪。结果视频没有声音,用ffmpeg吧声音合并。结果保存在video_data/下面。3)运行实时数字人,暂时没有声音。2)运行demo合成视频。原创 2024-09-26 22:08:14 · 582 阅读 · 0 评论 -
3d可视化图片:通过原图和深度图实现
#然后页面打开:http://localhost:8000;效果没有上面的depthy好。原创 2024-09-24 10:02:50 · 568 阅读 · 0 评论 -
pgvector docker版安装;稀疏向量使用;psycopg2 python连接使用
参看:https://cloud.tencent.com/developer/article/2359831https://hub.docker.com/r/pgvector/pgvector/tagshttps://github.com/pgvector/pgvector拉取运行:连接:1)安装客户端2)连接https://github.com/pgvector/pgvector1)稠密向量2)稀疏向量原创 2024-09-21 17:29:29 · 577 阅读 · 0 评论 -
RAG新思路降低检索错误率:为文档划分的每个块进行大模型上下文构建
【代码】RAG新思路降低检索错误率:为文档划分的每个块进行大模型上下文构建。原创 2024-09-20 16:58:07 · 81 阅读 · 0 评论 -
qwen2.5 vllm推理;openai function call调用中文离线agents使用
参考:运行:运行调用tools报错,qwen官方说会尽快修复增加 /ai/template.jinja 文件。原创 2024-09-19 12:46:28 · 1029 阅读 · 1 评论 -
vllm 部署qwen2.5-7b;opeanai 接口访问、requests接口
参考:https://qwenlm.github.io/zh/blog/qwen2.5/https://huggingface.co/Qwen/Qwen2.5-7B-Instruct下载:vllm部署:流式非流式原创 2024-09-19 13:26:02 · 577 阅读 · 0 评论 -
BGE-M3稠密向量、稀疏向量使用案例;bge-reranker使用案例
【代码】BGE-M3稠密向量、稀疏向量使用案例。原创 2024-09-19 11:23:20 · 510 阅读 · 0 评论 -
pytorch qwen2-vl自定义数据全量微调
参考:https://github.com/zhangfaen/finetune-Qwen2-VL/tree/main。运行模型保存在:train_output下。2B显存训练也很高,4090卡训练的。安装特定包,对qwen2vl支持。原创 2024-09-14 10:29:22 · 677 阅读 · 0 评论 -
cursor AI代码编辑器IDE对接本地模型deepseek
参考:https://www.cursor.com/https://platform.deepseek.com/https://www.cursor.com/下载安装后,注册账号登录即可再高级里选择设置再模型这注册模型:模型名称一定要填正确,url地址填好,最后填上秘钥验证原创 2024-09-13 09:47:04 · 2468 阅读 · 0 评论 -
swift qwen2-vl推理及加载lora使用案例
参考:SWIFT支持300+ LLM和50+ MLLM(多模态大模型)的训练(预训练、微调、对齐)、推理、评测和部署。原创 2024-09-12 10:07:27 · 768 阅读 · 0 评论 -
swift:qwen2 VL 多模态图文模型lora微调swift
【代码】swift:qwen2 VL 多模态图文模型lora微调swift。原创 2024-09-11 21:04:57 · 748 阅读 · 0 评论 -
transformers多agents调用使用离线大LLM:MiniCPM3模型
【代码】多agents调用使用离线大LLM:MiniCPM3模型。原创 2024-09-06 16:32:25 · 172 阅读 · 0 评论 -
MiniCPM3-4B 大模型安装vllm推理使用;transformers function call agent使用案例
参考:https://github.com/OpenBMB/MiniCPM下载模型:环境安装:原创 2024-09-06 15:34:57 · 289 阅读 · 0 评论 -
flux 文生图大模型 自有数据集 lora微调训练案例
数据集:https://huggingface.co/datasets/quocanh34/itay-hires-lora-dataset-v2。国内https://modelscope.cn/models/ai-modelscope/flux.1-dev/files。模型地址:name_or_path;待支持:https://github.com/kohya-ss/sd-scripts/X-LABS 的https://github.com/XLabs-AI/x-flux。1)首先填写配置文件。原创 2024-09-04 17:37:05 · 629 阅读 · 0 评论 -
flux bitsandbytes bnb量化;diffusers 15G显卡加载使用
大概需要13G多,t4卡推理一张图需要3-4分左右时间。huggingface-cli login 登录。对text模块bnb量化。原创 2024-09-01 17:32:59 · 398 阅读 · 0 评论 -
flux 文生图bnb量化模型diffusers使用案例
参考:https://huggingface.co/black-forest-labs/FLUX.1-devhttps://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/1079https://github.com/huggingface/diffusers/issues/9149https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/tree/main下载单个模型:bit原创 2024-08-31 10:20:17 · 1077 阅读 · 0 评论 -
vllm 推理qwen gguf模型使用案例;openai接口调用、requests调用
vllm 推理qwen gguf模型使用案例;openai接口调用、requests调用原创 2024-08-29 11:51:26 · 167 阅读 · 0 评论 -
transformers quantization bitsandbytes实时量化方法使用load_in_4bit,load_in_8bit;量化模型保存及加载使用
参考:https://huggingface.co/docs/transformers/main/en/quantization/bitsandbytes?bnb=8-bithttps://www.atyun.com/57101.htmlhttps://huggingface.co/blog/4bit-transformers-bitsandbytesbitsandbytes错误参考:https://cnloong.blog.csdn.net/article/details/141607933使用q原创 2024-08-28 17:10:48 · 283 阅读 · 0 评论 -
PEFT qwen2 lora微调模型训练案例
参考:https://github.com/huggingface/peft##文档https://huggingface.co/docs/peft/indexhttps://www.wehelpwin.com/article/4299https://www.ethanzhang.xyz/2024/07/09/%E3%80%90%E4%B8%AA%E4%BA%BA%E5%8D%9A%E5%AE%A2%E3%80%91%E4%BD%BF%E7%94%A8huggingface%E5%9C%A8%E5%8原创 2024-08-28 09:26:58 · 831 阅读 · 0 评论 -
bitsandbytes使用错误:CUDA Setup failed despite GPU being available
参考:https://huggingface.co/docs/bitsandbytes/main/en/installation报错信息版本:Cuda本身拥有两个API,分别是cuda driver version 和 cuda runtime version。1、nvidia-smi查看的是cuda driver version版本(如图1)原创 2024-08-27 19:31:32 · 264 阅读 · 0 评论 -
autogen studio agents可视化编排使用
自定义agent,同时模型记得更换。多agent编排组织实现自定义功能。本文章windows平台测试。支持添加离线vllm模型。2)自定义agent。原创 2024-08-26 14:32:14 · 70 阅读 · 0 评论 -
pytorch FSDP分布式训练minist案例
它的主要目标是解决在多GPU和多节点环境下训练大型模型的内存效率问题。FSDP通过将模型的参数、梯度和优化器状态分片到多个GPU上,从而允许在有限的内存资源下训练更大的模型。优化器状态分片:优化器的状态也会被分片,每个GPU只维护与其参数分片对应的优化器状态。梯度分片:梯度也会被分片,每个GPU只计算和存储与其参数分片对应的梯度。参数分片:将模型的参数分片到多个GPU上,每个GPU只保存一部分参数。通信优化:通过减少通信量和优化通信模式,提高训练效率。fsdp这份代码训练是在单机多卡,两卡上运行的。原创 2024-08-26 10:25:53 · 250 阅读 · 0 评论 -
autogen agent使用框架案例调用ollama、vllm模型接口
参考:https://github.com/microsoft/autogenhttps://microsoft.github.io/autogen/docs/topics/non-openai-models/local-vllm安装:pyautogen-0.2.35openai-1.24.01) ollama2)vllm制定一个从哈尔滨去北京旅游5天的计划,我们可以按照以下日程进行规划:请根据个人兴趣和实际情况调整行程, 确保有充足的休息时间,同时关注天气 预报和交通状况,以确保旅行的顺利原创 2024-08-23 11:20:40 · 252 阅读 · 0 评论 -
mediapipe GPU使用案例
测试在centos也可以正常运行gpu支持。原创 2024-08-18 09:49:53 · 123 阅读 · 0 评论 -
Depth-Anything、mediapipe单摄像头实现人脸实时深度测距、尺寸计算案例
方法:mediapipe检测出人脸Depth-Anything求出深度视差图人脸坐标取对应视差图获取对应位置视差换算:先提前固定人脸距离(比如0.5m)a1得出视对应差值d1,加入不同距离视差值是相对成比例,那新的人脸距离a2等于 (a1/d1)*新的人脸距离位置的视差值d2这方法测量精度很一般,只是实现功能尝试,仅参考。原创 2024-08-17 21:40:05 · 294 阅读 · 0 评论 -
mediapipe tasks、solutions人脸检测案例
【代码】mediapipe 人脸检测案例。原创 2024-08-17 08:18:21 · 503 阅读 · 0 评论 -
说话人识别 声纹向量提取modelscope案例
参考:https://www.modelscope.cn/models/iic/speech_campplus_sv_zh_en_16k-common_advanced/modelscope 1.17.11)加载离线音频暂时好像只支持wav,音频采样率要16000采样率不对尽量提前转换,2)说话人向量获取192维度,result[“embs”]原创 2024-08-15 22:18:50 · 123 阅读 · 0 评论 -
CLIP 微调图像侧分类训练
参考:https://www.marqo.ai/course/fine-tuning-clip-modelscolab参考:https://colab.research.google.com/drive/1iI16yIc8m-sWrGx3yVrlChUwScmKStQN?usp=sharing原创 2024-08-15 15:16:04 · 268 阅读 · 0 评论 -
LongWriter 大模型超长输出使用案例
参考:大概是通过agent方式区分步骤实现。原创 2024-08-15 14:15:17 · 105 阅读 · 0 评论 -
gradio 对话界面实现支持图片、视频正常显示
参考:问题:gradio网页输出视频nan;图片webp显示不出来解决方法:需要通过gradio的Video、Image包装。原创 2024-08-14 19:53:17 · 699 阅读 · 0 评论
分享