compshare
文章平均质量分 62
fly-iot
没什么大不了,一直写代码。
展开
-
【xinference】(15):在compshare上,使用docker-compose运行xinference和chatgpt-web项目,配置成功!!!
【代码】【xinference】(15):在compshare上,使用docker-compose运行xinference和chatgpt-web项目,配置成功!!!原创 2024-07-06 23:54:17 · 855 阅读 · 0 评论 -
【xinference】(14):在compshare上,安装nvidia-docker工具,成功启动推理框架xinference-gpu的docker镜像,并运行大模型,非常简单方便!
Compshare GPU算力平台隶属于UCloud,专注于提供高性价4090算力资源,配备独立IP,支持按时、按天、按月灵活计费,支持github、huggingface访问加速。【xinference】(14):在compshare上,使用nvidia-docker方式,成功启动推理框架xinference,并运行大模型,非常简单方便。然后就可以通过界面启动模型了,支持大语言模型,embedding模型,rerank等。UCloud(优刻得)是中国知名的中立云计算服务商,科创板上市,中国云计算第一股。原创 2024-07-06 22:06:16 · 1334 阅读 · 0 评论 -
【compshare】(5):使用UCloud(优刻得)的compshare算力平台,运行stable-diffusion-3-medium-comfyui镜像,可以进行文生图,使用简便,开箱即用
运行stable-diffusion-3-medium-comfyui镜像。通过浏览器访问: http://xxx.xx.xxx.xx:8188。已经有了最新的stable-diffusion-3镜像。镜像和模型都打包在里面了,直接开箱就用。还可以导入导出自己的配置。搜索各种提示词文案。用完记得关闭服务呢!原创 2024-06-27 09:08:36 · 629 阅读 · 0 评论 -
【LocalAI】(13):LocalAI最新版本支持Stable diffusion 3,20亿参数图像更加细腻了,可以继续研究下
SD3 Medium 可以根据用户输入的文本描述,重点克服了文生图模型中手部和脸部的挑战,生成足以乱真的的图像。SD3 Medium 还利用其底层的 Diffusion Transformer 架构,高精度地整合了文字元素。根据介绍,Stable Diffusion 3 Medium 模型规格参数达到了 20 亿,可以给用户带来更真实的图片体验。目前用户可以从 Hugging Face 上下载该模型。Stable Diffusion 3 Medium 正式开源。原创 2024-06-23 22:41:03 · 508 阅读 · 0 评论 -
【xinference】(11):在compshare上使用4090D运行xinf和chatgpt-web,部署大模型GLM-4-9B大模型,占用显存18G,速度不错,也挺智能的。
GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出较高的性能。本代模型增加了多语言支持,支持包括日语,韩语,德语在内的 26 种语言。【xinference】(11):在compshare上使用4090D运行xinf和chatgpt-web,部署大模型glm4-9B-chat大模型,显存18G。是python3.12 版本造成的。原创 2024-06-07 08:55:56 · 1392 阅读 · 0 评论 -
【compshare】(4):使用UCloud(优刻得)的compshare算力平台,新增加Llama-factory镜像,可以快速启动,非常方便,部署特别简单,效果不错,不用担心HF网络问题
库少了几个,可以向 compshare 反馈下。可以选择中文,进行参数修改。安装完成缺少的 包之后,就可以启动成功了。原创 2024-06-05 22:28:11 · 363 阅读 · 0 评论 -
【compshare】(3):使用UCloud(优刻得)的compshare算力平台,新增加SD-webui和大模型镜像,可以快速启动,非常方便,部署特别简单...
新的镜像不错,简化了部署使用,更加的方便了。可以很快的搭建SD和大模型的平台了。原创 2024-06-05 09:40:25 · 482 阅读 · 0 评论 -
【compshare】(2):在compshare算力共享平台的主机上安装docker镜像和nvidia-docker方法,和普通ubuntu一样,安装好驱动之后安装nvidia-docker2即可
选择ubuntu 镜像和设置密码,可以设置随即。原创 2024-05-26 22:41:02 · 250 阅读 · 0 评论 -
【compshare】(1):推荐UCloud(优刻得)一个GPU按小时租的平台,使用实体机部署,可以方便快速的部署xinf推理框架并提供web展示,部署qwen大模型,特别方便
专注于提供高性价比算力资源,海量GPU,一键部署,即算即用,让AI训练、深度学习、科研计算效率翻倍。需要选择 ubuntu 版本,可以支持最高 12.4 的cuda驱动。测试qwen 大模型速度。因为运行的方式不一样,不使用了需要删除应用。但是界面启动后需要等待下驱动安装。模型之能运行一个,重启再运行即可。下载速度还是非常快的。否则还是会产生费用。是独享的模型创建的。原创 2024-05-26 20:40:08 · 1059 阅读 · 0 评论
分享