- 博客(99)
- 资源 (8)
- 收藏
- 关注
原创 【低代码】Qinghub 一款更适合开发人员的低代码软件工厂
Qinghub,如你所见,没有什么特别的含义,我们只是站在软件开发人员的角度,重新定义开发过程,Qinghub就是一个轻开发,轻架构,轻工厂,在这我们只想让开发的一切都变得轻松透明,让人人都清楚,原来就是这么简单。Qinghub是低码开发的平台,是数据收集的工具,是运维部署的工具-它就是妥妥软件工厂。你想要的---它都有。当然Qinghub也还很年轻。道路阻且长,行则将至。
2024-03-25 09:11:04 1653 1
原创 ComfyUI 集成混元DIT(comfyui-hydit)
最近腾讯官方推出了ComfyUI插件comfyui-hydit 。是一个专门为腾讯的 Hunyuan-DiT 模型设计的自定义节点和工作流。本文主要介绍如何通过ComfyUI来运行腾讯新出的支持中文提示词的混元文生图大模型Hunyuan-DiT
2024-06-14 08:56:36 1469
原创 CogVLM2 本地部署体验(Docker容器版)
智普AI推出新一代的系列模型,并开源了两款基于开源模型。与上一代的 CogVLM 开源模型相比,硬件要求(模型推理):INT4 : RTX3090*1,显存16GB,内存32GB,系统盘200GB模型微调硬件要求更高。
2024-06-13 09:42:50 1092 3
原创 【备忘录】ERROR: Failed building wheel for mpi4py 解决
【备忘录】ERROR: Failed building wheel for mpi4py 解决
2024-06-13 09:41:39 261
原创 Comfyui容器化部署与简介
目前使用 Stable Diffusion 进行创作的工具主要有两个:Stable Diffusion WebUI 和 ComfyUI。本文重点介绍ComfyUI的部署使用。ComfyUI 可定制性很强,可以让创作者搞出各种新奇的玩意,通过工作流的方式,也可以实现更高的自动化水平,创作方法更容易传播复现,支持多任务批量提交到comfyui,支持websocket对接。 但是 ComyUI 的上手门槛有点高,对 Stable Diffusion 以及各种扩展能力的原理需要有一定的理解,动手能力要求也比较高。
2024-06-06 11:08:41 2503
原创 ChatGLM 4本地部署指南(Docker容器版)
GLM-4V-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源多模态版本。 **GLM-4V-9B** 具备 1120 * 1120 高分辨率下的中英双语多轮对话能力,在中英文综合能力、感知推理、文字识别、图表理解等多方面多模态评测中,GLM-4V-9B 都表现出卓越性能。
2024-06-06 10:48:44 5448 4
原创 CogVLM2 本地部署体验(Docker容器版)
智普AI推出新一代的 CogVLM2 系列模型,并开源了两款基于 Meta-Llama-3-8B-Instruct开源模型。与上一代的 CogVLM 开源模型相比,CogVLM2 系列开源模型具有以下改进:在许多关键指标上有了显著提升,例如 TextVQA, DocVQA。支持 8K 文本长度。支持高达 1344 * 1344 的图像分辨率。提供支持中英文双语的开源模型版本。
2024-05-24 15:39:48 2201 7
原创 ChatGLM 本地部署指南(Docker容器版)
ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的对话预训练模型。ChatGLM3-6B 是ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 有更强大的基础模型,更完整的功能支持,更全面的开源序列
2024-05-21 16:13:39 1899
原创 Qwen-VL本地部署指南(Docker容器版)
Qwen-VL 是一个多模态视觉文本模型,可以完成图像识别,视觉问答,OCR, 文档理解,视觉定位等功能,同时支持多语言对话,多图像交错对话,细粒度识别,基于Qwen-7B语言模型,整体模型架构和输入输出接口都非常简洁。官方webui 十分方便易用。
2024-05-20 18:24:24 2554
原创 couldn‘t find it in the cached files and it looks like openai/clip-vit-large-patch14-336 is not the
couldn‘t find it in the cached files and it looks like openai/clip-vit-large-patch14-336 is not the
2024-05-16 14:40:22 540
原创 CogVLM 本地部署体验(问题解决)docker容器版
CogVLM 是一款强大的预训练模型,专注于理解和生成带视觉信息的文本,如图像描述、图像问答等任务。它通过大规模数据预训练,将视觉信号与语言知识融合在一起,以提高模型的跨模态理解和生成能力。CogVLM的核心在于它的多模态融合机制。模型接收文本与图像作为输入,并通过深度学习网络进行联合表示,使得两者的信息可以相互补充和交互。这种设计使得模型不仅能理解语言,还能"看"并理解图像,从而提供更全面的响应。
2024-05-16 10:43:51 1178
原创 docker: Error response from daemon: could not select device driver ““ with capabilities: [[gpu]] 解决
在执行docker run --gpus 的时候报错,是因为重装显卡驱动后导致不可用,重新安装一遍NVIDIA Container Toolkit 即可解决问题
2024-05-16 09:40:45 347
原创 腾讯混元文生图模型HunyuanDiT部署体验
最近,腾讯混元文生图模型HunyuanDiT 架构升级,并免费开源了。他采用的神经网络架构和Sara一样都是Diffusion Transformer,参数量已经达到15亿。官方测评效果显示超过目前开源的Stable Diffusion。试用下来效果比较令人惊喜。
2024-05-15 20:19:46 2929 1
原创 【AI大模型】安装NVIDIA Container Toolkit
在使用docker时,如果想利用NVIDIA 的GPU , 必须要安装暖光nvidia container toolkit。该工具包包括一个容器运行时[库](https://github.com/NVIDIA/libnvidia-container)和实用程序,用于自动配置容器以利用 NVIDIA GPU。
2024-05-09 09:08:53 677
原创 QingHub Studio快速部署
QingHub Studio部署套件,主要针对需要本地化离线部署的用户提供一键部署的能力。目前本地化部署只支持单机版。需高可用部署的可以自行研究或寻求轻云研发团队技术支持。本地部署只作为用户开发的前后端应用的运行环境,不包括应用设计及监控运维。该版本为单机体验版,仅适用于体验 QingHub 功能或者个人开发环境, 支持 Windows(x86_64)、Linux(x86_64)。
2024-04-27 16:55:25 1309 1
原创 【k8s】(九)kubernetes1.29.4离线部署之-Token过期后加入节点
kubernetes1.29.4离线部署之-Token过期后加入节点
2024-04-26 18:59:16 474
原创 【k8s】(七) kubernetes1.29.4离线部署之-部署网络插件
kubernetes1.29.4 离线部署之- 部署网络插件calico
2024-04-23 14:05:41 1335
原创 【k8s】Kubernetes 1.29.4离线安装部署(总)
Kubernetes 1.29.4 离线安装部署;脚本化快速部署;容器运行时采用Containerd;逐步支持多平台部署。
2024-04-19 09:05:53 6284 4
rational software architect 8.0.1 破解
2010-12-24
Solaris系统管理员手册
2009-08-30
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人