自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(229)
  • 资源 (4)
  • 收藏
  • 关注

原创 Docker-构建自己的Web-Linux系统-Ubuntu:22.04

本文介绍了基于Ubuntu 22.04构建支持SSH服务的Docker镜像的详细过程。主要内容包括:1) 使用阿里云镜像源替换默认源;2) 安装openssh-server并配置root登录权限;3) 通过Dockerfile构建190MB大小的精简镜像;4) 创建容器时映射28521端口,并设置privileged权限和自动重启;5) 主机防火墙配置端口开放。最终可通过SSH客户端使用root/root凭证连接至容器,为开发者提供了轻量级的SSH容器环境。

2026-01-30 21:28:57 135

原创 Docker-构建自己的Web-Linux系统-镜像colinchang/ubuntu-desktop:22.04

Ubuntu桌面环境Docker镜像使用指南 本文提供了Ubuntu 22.04桌面环境Docker镜像的下载和运行方法。镜像大小为3G,可从两个源下载。运行命令包含容器配置参数,如共享内存大小、端口映射和VNC密码设置。访问方式为HTTPS协议,默认用户名为"kasm_user",密码与VNC_PW参数相同。文章最后展示了运行效果截图,证实该镜像能成功提供基于网页的Ubuntu桌面环境。

2026-01-26 22:44:08 172

原创 Docker-构建自己的Web-Linux系统-镜像kasmweb/ubuntu-jammy-desktop

摘要 本文介绍了两种通过Docker快速部署Ubuntu桌面环境的方法。第一种使用kasmweb/ubuntu-jammy-desktop镜像(8GB大小),运行命令包含shm-size设置和VNC密码配置,访问地址为https://IP:6901,默认用户名为kasm_user。第二种推荐方案使用colinchang/ubuntu-desktop镜像,配置类似但密码格式不同。两种方法都提供了基于浏览器的远程桌面访问能力,适用于需要轻量级Linux桌面环境的场景。

2026-01-22 22:06:58 238

原创 在 Ubuntu 上安装 noVNC

本文提供了在Ubuntu系统上安装和配置noVNC的详细指南。主要内容包括:更新系统、安装依赖包、克隆noVNC仓库、启动Web服务、配置SSL/TLS加密访问,以及设置systemd后台服务。文中还提供了常见问题的解决方法,如端口冲突、权限问题和连接拒绝等。通过浏览器访问6080端口即可使用noVNC连接到VNC服务器,实现远程图形界面访问。该指南涵盖了从基础安装到高级配置的全过程,适用于需要在Ubuntu上部署网页版VNC服务的用户。

2026-01-17 10:42:20 408 2

原创 Python-文件拷贝+文件重命名+shutil+记录

本文介绍了Python中使用shutil模块进行文件操作的方法,主要包括文件复制和重命名功能。文件复制提供了copy()、copy2()和copyfile()三种方法,分别保留不同级别的元数据信息,其中推荐使用copy2()以保留所有元数据。重命名操作可使用shutil.move()或os.rename()实现。文中还提供了异常处理示例,确保操作失败时能输出友好提示信息。这些方法封装了常见的文件操作需求,并考虑了错误处理情况。

2026-01-16 00:07:53 282

原创 第七十五篇-分享+ComfyUI+SeedVR2+TTP放大+0损耗压缩+图片放大

摘要 本文介绍了一个工作流工具的实测效果。作者提供了该工具的访问链接和邀请码(rh024),并展示了一张实测效果截图。从截图和文字描述来看,该工具运行效果良好,作者推荐读者下载试用。全文简洁明了,主要突出工具的实用性和推荐意图,适合快速了解该工具的基本情况。

2026-01-15 00:02:02 205

原创 第七十四篇-ComfyUI+V100-32G+SeedVR2+图片放大

本文介绍了在CentOS-7系统上使用ComfyUI运行SeedVR2视频超分辨率工作流的完整流程。系统配置包括Tesla V100-32G显卡和64GB内存。主要步骤包括:升级ComfyUI至最新版本、导入SeedVR2工作流JSON文件、安装缺失节点、下载所需模型文件(seedvr2_ema_7b-Q4_K_M.gguf和ema_vae_fp16.safetensors)。测试表明V100-32G显卡在1440分辨率下能基本跑满显存,效果明显优于原图。作者建议显存不足时可降低resolution参数值,

2026-01-09 22:21:02 383

原创 第七十三篇-ComfyUI+V100-32G+Flux Schnell+Lora

摘要:本文展示了在CentOS-7系统上使用ComfyUI(v0.4.0)进行AI绘画的工作流程。硬件配置包括E5-2680V4 CPU、64GB内存和Tesla V100-32G显卡,软件环境为Python 3.12和PyTorch 2.9.1。通过指定--lowvram参数启动服务,使用Lora模型"人物头像卡通2.0"生成动漫风格图像。提示词描述了粉发双马尾水手服少女的可爱形象,最终输出两张动漫风格作品图。系统运行状态显示62.68GB内存中60.25GB可用,保证了流畅的生成过程

2026-01-07 23:02:44 352

原创 第七十二篇-V100-32G+WebUI+Flux.1-Schnell+Lora+文生图

本文介绍了一个轻量级Flux工具,用于加载LoRA模型进行图像生成。该工具基于PyTorch和Diffusers库实现,主要功能包括: 模型管理:通过ModelManager类实现基础模型和LoRA权重的加载、生成和清理 环境优化:设置CUDA环境变量,启用xformers内存高效注意力 轻量级加载:针对V100显卡优化的超轻量模型加载模式 图像生成:支持带LoRA权重的图像生成,自动保存输出结果 工具特性: 线程安全的模型操作 自动显存管理 生成统计信息记录 支持LoRA权重动态加载/卸载 安装简单,只需

2026-01-07 21:50:23 255

原创 第七十一篇-V100-32G+命令行代码+运行Flux.1-Schnell+Lora+文生图

这篇文章介绍了针对NVIDIA V100 GPU优化的FLUX.1-schnell模型加载和推理脚本。主要内容包括: 环境优化设置:配置CUDA内存管理、禁用tokenizer并行、启用cuDNN基准测试 轻量级模型加载:采用FP16精度、顺序CPU卸载、VAE切片和拼接、注意力切片等技术 显存优化措施:包含xformers启用(带fallback)、LoRA权重加载优化、显存清理 生成流程:支持提示词输入、负面提示词、LoRA权重调整等参数 脚本特别针对V100显卡的显存限制进行了多项优化,包括模型加载策

2026-01-06 23:31:58 189

原创 hbase-shaded-client hbase-client 的区别

HBase提供了两种Java客户端依赖:hbase-client和hbase-shaded-client,主要区别在于依赖处理方式。hbase-client是标准客户端,依赖需用户自行管理,适合干净可控环境;而hbase-shaded-client通过重打包关键第三方依赖避免冲突,更适合嵌入Spark/Flink等复杂框架或开发中间件。选择建议:独立应用用hbase-client,复杂环境用hbase-shaded-client。HBase 2.x推荐优先使用shaded版本。

2026-01-06 15:35:51 418

原创 ModuleNotFoundError: No module named ‘PIL‘ 错误

摘要:本文介绍了如何安装Pillow库以替代PIL图像处理库,包括通过pip命令安装和验证安装成功的简单Python代码。安装完成后,可以通过导入Image模块并打印确认信息来检查是否安装成功。

2026-01-04 15:40:30 381

原创 hivesql 字段aa值 如何去掉前面的0

Hive SQL去除字段前导零的两种方法:1)使用正则表达式regexp_replace(aa,'^0+','')保留字符串类型;2)通过CAST(aa AS BIGINT)转为数值类型。正则表达式适合任意字符串,类型转换仅适用于纯数字。混合内容可先用正则判断,建议根据业务需求选择方法并注意全零字段的特殊处理(返回空或0)。

2025-12-30 18:50:25 390 2

原创 safetensors+bin+h5使用差异

文章摘要:介绍了BLIP图像描述模型中常见的三种权重文件格式(model.safetensors、pytorch_model.bin、tf_model.h5)的选择建议。优先推荐使用model.safetensors,因其加载更快更安全;若不支持则选择pytorch_model.bin;TensorFlow环境需使用tf_model.h5。同时列出了各格式所需的Python安装包:safetensors需要安装safetensors,pytorch_model.bin需要安装PyTorch相关库,tf_mo

2025-12-29 16:14:50 159

原创 Linux-删除一级目录下子目录-github例子

【代码】Linux-删除一级目录下子目录-github例子。

2025-12-29 11:48:18 349

原创 jupyterlab-安装与启动

【代码】jupyterlab-安装与启动。

2025-12-28 23:01:45 160

原创 pip库备份方法

摘要:本文介绍5种pip库备份方法:1)使用pip freeze导出所有包列表;2)用pipreqs仅导出项目依赖;3)conda用户可用conda env export;4)完整备份包含pip版本信息;5)创建虚拟环境备份脚本。恢复时均通过对应命令安装requirements文件。方法1适合完整环境备份,方法2更精确只保留项目依赖,方法3专为conda设计。备份文件通常命名为requirements.txt或environment.yml,恢复命令为pip install -r requirements.

2025-12-28 22:58:42 205

原创 mysql.connector.errors.ProgrammingError: 1071 (42000): Specified key was too long; max key length is

MySQL索引长度超限错误(1071)通常由于索引字段长度超过存储引擎限制所致。对于MyISAM引擎,最大索引长度为1000字节;InnoDB引擎默认为767字节(5.6及以下版本),5.7+版本可支持3072字节。解决方法包括:缩短字段长度、使用前缀索引、改用InnoDB引擎、启用innodb_large_prefix配置、优化数据类型或调整复合索引结构。具体方案需根据MySQL版本和存储引擎选择。

2025-12-26 23:03:54 783 1

原创 第七十篇-ComfyUI+V100-32G+运行SD3.5-文生图

本文介绍了在CentOS-7系统上配置ComfyUI环境并运行SD3.5模型的工作流程。硬件配置包括E5-2680V4 CPU、64GB内存和Tesla V100显卡,软件环境采用Python 3.12和PyTorch 2.9.1。详细说明了模型文件的下载地址和存放目录(包括checkpoints、text_encoders和vae),并提供了完整的工作流JSON配置。该配置包含TripleCLIPLoader、UNETLoader、文本编码器、KSampler、VAE解码器和图像保存等节点,可实现高质量的

2025-12-26 22:46:56 853 1

原创 Windows10 永久关闭预览窗格

如何在 Windows 10 永久关闭预览窗格? 临时关闭:按 Alt+P 或通过"查看"菜单关闭,但重启可能恢复。 注册表永久禁用(推荐): 打开注册表,定位到 HKEY_CURRENT_USER\...\Advanced 新建 DisabledPreviewPane(DWORD值设为 1),重启生效。 组策略禁用(仅专业版/企业版): 通过 gpedit.msc 启用"关闭预览窗格"策略。 完全禁用预览:在文件夹选项中勾选"始终显示图标"。 恢

2025-12-26 20:07:06 1424

原创 第六十九篇-NVIDIA V100-32G+Stable-Diffusion-WebUI

本文介绍了在CentOS-7系统上部署Stable Diffusion WebUI的完整流程。硬件配置包括E5-2680V4 CPU、64G内存和Tesla V100显卡。主要步骤包括:创建必要的目录结构、下载适配CUDA 12.2的Docker镜像、配置容器运行参数、设置环境变量以及下载基础模型文件。部署完成后可通过7860端口访问Web界面。整个过程涵盖了从环境准备到服务启动的完整环节,适用于高性能GPU服务器上的AI绘画服务部署。

2025-12-25 09:21:54 346

原创 第六十八篇-NVIDIA V100 功耗限制设置指南

本文介绍了两种设置NVIDIA显卡功率限制的方法:临时生效和开机自动生效。临时方法通过nvidia-smi命令直接设置250W功率限制,并推荐启用持久模式。自动生效方法则通过创建脚本和systemd服务文件,在系统启动时自动执行功率限制设置。两种方法均可通过nvidia-smi -q -d POWER命令验证设置效果。

2025-12-22 16:50:58 538

原创 第六十七篇-ComfyUI+V100-32G+运行Hunyuan3D_2.1

本文介绍了在CentOS-7系统上使用ComfyUI运行混元3D 2.1模型的配置和性能表现。硬件配置包括E5-2680V4 CPU、64GB内存和Tesla V100-32G显卡。系统采用Python 3.12和PyTorch 2.9.1,启动参数包含--cuda-malloc和--lowvram优化。测试显示模型加载约20GB显存,GPU利用率达100%,单次推理耗时约60秒,性能表现良好。文章详细说明了模型下载路径和目录结构,并展示了运行时的终端输出和GPU监控数据,验证了该配置下模型的可用性和效率。

2025-12-19 23:28:58 446

原创 第六十六流篇-ComfyUI+V100-32G+ComfyUI-Manager

本文介绍了如何在ComfyUI中安装Manager组件。首先通过git命令克隆ComfyUI-Manager仓库到指定目录,然后使用pip安装依赖项。安装完成后重启ComfyUI即可在界面看到新增的Manager组件,该组件提供了安装、更新和管理其他组件的功能。文中包含详细的操作步骤和安装完成后的界面截图展示。

2025-12-19 22:47:25 187

原创 第六十五篇-ComfyUI+V100-32G+运行Wan2.2-图生视频-GGUF

摘要:本文记录了在CentOS-7系统下使用Tesla V100-32G显卡运行Wan2.2图生视频模型的过程。系统配置为双路E5-2680V4处理器和64GB内存,通过ComfyUI 0.4.0框架执行。测试显示,生成1280×720分辨率、5秒视频耗时约16分钟,峰值显存占用17GB。虽然GGUF格式降低了显存需求,但生成时间未见明显优化。完整工作流程包括模型下载、参数配置及性能监控数据。

2025-12-19 22:42:41 491 1

原创 MYSQL+数据库备份与还原

输入密码。

2025-12-19 09:11:01 226

原创 第六十四篇-ComfyUI+V100-32G+运行Z-Image-Turbo+GGUF

本文介绍了在CentOS-7系统上使用Tesla V100-32G显卡运行ComfyUI(0.4.0版本)生成图像的过程。通过将模型转换为GGUF格式(使用z_image_turbo-Q4_K_M和Qwen3-4B-Q4_K_M模型),并调整工作流节点配置,实现了1024x1024分辨率图像的生成。测试结果显示,GPU利用率达100%,显存占用6-8GB,单张图像生成时间约12秒。该方法有效降低了显存需求,使得在较小显存显卡上也能运行。系统配置包括E5-2680V4 CPU、64GB内存,使用Python

2025-12-18 23:31:55 582 1

原创 第六十三篇-ComfyUI+V100-32G+代码-Z-Image-Turbo

本文介绍了在CentOS-7系统下使用ComfyUI进行图像生成的环境配置和性能表现。系统搭载E5-2680V4处理器、64GB内存和Tesla V100-32G显卡,运行ComfyUI 0.4.0版本。通过下载Z-Image-Turbo模型和相关文件,在1024x1024分辨率下生成"晨露珠"主题图像。测试结果显示GPU利用率100%,显存占用12-13GB,平均生成时间约7秒/张,总处理时间约10-20秒。系统配置合理,性能表现良好,适合高效图像生成任务。

2025-12-18 22:53:16 490

原创 短UUID+Python+Java

本文介绍了在Python和Java中生成短UUID的方法。Python中可以使用shortuuid库快速生成22位随机字符串,如"kC7mzVXLZjZEQ65hX5EwxS"。Java版本通过将标准UUID转换为BigInteger并进行数值操作,最终生成8位16进制格式的短UUID。两种方法都能有效缩短标准UUID的长度,适用于需要简洁唯一标识符的场景。

2025-12-17 13:05:37 506 1

原创 affine+docker+postgresql+备份数据库

数据库备份与恢复操作指南 本文提供了使用Docker容器进行PostgreSQL数据库操作的简明步骤: 进入容器:使用docker exec命令进入PostgreSQL容器 备份数据库:在容器内使用pg_dump命令导出数据库 恢复数据库:使用psql命令导入备份文件 文件传输:通过docker cp命令在容器和宿主机间传输备份文件 这些命令涵盖了从数据库访问、备份到恢复的完整流程,适用于PostgreSQL数据库的日常维护工作。

2025-12-17 11:55:51 330

原创 第六十二篇-ComfyUI+V100-32G+代码运行Z-Image-Turbo

本文介绍了在CentOS-7系统下使用Tesla V100-32G显卡运行Z-Image-Turbo模型的完整流程。系统配置包括14核28线程CPU、64GB内存和CUDA 12.2环境。通过modelscope下载模型后,使用diffusers库加载pipeline,支持bfloat16精度和多种优化选项如Flash Attention。生成1024×1024图像耗时约1分钟,GPU峰值占用30GB内存并保持100%利用率。文中提供了详细的代码实现、参数设置和运行日志,并展示了生成效果图。作者表示后续将把

2025-12-16 23:22:51 278

原创 第六十一篇-ComfyUI+V100-32G+GGUF+运行Flux Schnell GGUF

本文介绍了在CentOS-7系统上配置ComfyUI运行Flux Schnell模型的方法。硬件配置包括Tesla V100-32G显卡,使用GGUF格式加载flux1-schnell-Q4_K_S.gguf模型。通过安装ComfyUI-GGUF插件并修改工作流节点,实现了1024x1024图像的7秒/张生成速度,GPU内存占用仅7-8GB。相比FP16格式,GGUF加载方式显著降低了显存需求,同时保持了100%的GPU利用率,展示了高效稳定的性能表现。

2025-12-16 22:05:49 1087 1

原创 第六十篇-ComfyUI+V100-32G+运行Wan2.2-图生视频

Wan 2.2 14B图生视频模型通过ComfyUI框架实现,提供多个组件下载链接。配置参数显示在V100-32G显卡上生成1280*720分辨率、5秒视频耗时约16分钟,峰值显存占用24GB。运行日志详细记录了模型加载过程及资源使用情况,最终输出效果良好但生成时间较长。该方案支持图片上传转换视频,适用于高质量视频生成场景。

2025-12-16 00:05:02 799

原创 第五十九篇-ComfyUI+V100-32G+运行Flux Schnell

Flux Schnell文生图模型使用指南:需下载4个关键模型文件(VAE、CLIP、T5XXL、主模型),总大小约30GB。首次运行时加载时间较长(34秒),后续生成1024x1024图像仅需6秒。测试显示GPU(Tesla PG503-216)占用2.5GB显存,利用率达100%,性能表现优异。该模型在ComfyUI环境下运行稳定,适合高效图像生成需求。

2025-12-15 23:07:26 253

原创 第五十八篇-ComfyUI+V100-32G+安装SD1.5

本次演示使用v1-5-pruned-emaonly.safetensors,放入ComfyUI/models/checkpoints。Ctrl+S 保存工作流配置。生成的效果不好,后期再调整。选中,填写,OK保存。

2025-12-12 22:49:41 452 2

原创 第五十七篇-ComfyUI+V100-32G+安装

【代码】第五十七篇-ComfyUI+V100+安装。

2025-12-12 22:31:05 431 3

原创 第五十六篇-Ollama+V100+Qwen3:32B-性能

摘要:在CentOS-7系统环境下,使用Tesla V100-32G显卡运行ollama测试qwen3:32b模型。测试显示,该配置下模型推理速度为25.34 tokens/s,显存占用22.3GB/32GB,GPU利用率达94%。虽然V100显卡已非最新,但测试结果表明其性能仍能满足个人使用需求,特别是在32GB大显存支持下能有效处理大模型推理任务。整个测试过程耗时约1分6秒,完成了1653个提示token和1605个输出token的处理。

2025-12-05 09:35:43 347 1

原创 第五十五篇-Ollama+V100+Qwen3:30B-性能

摘要:在CentOS-7系统环境下,使用配备Tesla V100-32G水冷显卡的服务器运行qwen3:30b模型进行测试。结果显示总处理时长为18.88秒,生成1344个token的速率为72.35 tokens/s。GPU温度维持在31℃,显存占用19.2GB/32GB,利用率达84%。测试表明V100显卡性能显著优于P40,水冷散热效果出色,温度控制在40℃以下。

2025-12-05 09:34:29 303 1

原创 第五十四篇-Ollama+V100+Qwen3:14B-性能

在CentOS-7系统下,使用E5-2680V4处理器和Tesla V100-32G显卡测试ollama运行qwen3:14b模型。测试显示,模型加载耗时47.8ms,生成2556个token耗时50.87秒,推理速度为50.24 token/s。GPU利用率达92%,显存占用15.2GB/32GB,温度36℃,功耗246W。系统配置和性能表现均衡,满足大模型推理需求。

2025-12-04 23:23:37 268

原创 第五十三篇-Ollama+V100+Qwen3:4B-性能

摘要:在CentOS-7系统环境下,使用Tesla V100-32G显卡运行qwen3:4b模型进行测试。结果显示处理3787个token耗时40.46秒,评估速率为93.98 tokens/s。GPU在84%负载下温度保持在29℃,显存使用4466MB/32768MB。测试表明V100性能显著优于P40,水冷散热效果良好,但转接板噪音问题明显。整体升级效果令人满意,运行速度表现优异。

2025-12-04 23:19:46 295 2

comfyui seedvr2 图片放大 工作流

comfyui seedvr2 图片放大

2026-01-09

comyfui flux schnell workflow

comyfui flux schnell workflow

2026-01-07

第六十五篇-ComfyUI+V100-32G+运行Wan2.2-图生视频-GGUF

第六十五篇-ComfyUI+V100-32G+运行Wan2.2-图生视频-GGUF

2025-12-19

强化学习算法图谱 (rl-algo-map)

强化学习算法图谱 (rl-algo-map)

2025-08-05

local-ollama-install.sh

local-ollama-install.sh

2024-11-21

The Llama 3 Herd of Models.pdf

The Llama 3 Herd of Models.pdf

2024-07-24

自我意识-训练数据train.json

自我意识-训练数据train.json

2023-08-01

标签类目体系-面向业务的数据资产设计方法论-企业通用-标签设计列表

企业通用-标签设计列表

2023-03-27

标签类目体系-面向业务的数据资产设计方法论-企业通用-标签设计列表

企业通用-标签设计列表

2023-03-27

标签类目体系-面向业务的数据资产设计方法论-用户-标签设计列表

用户-标签设计列表

2023-03-27

标签类目体系-面向业务的数据资产设计方法论-员工-标签设计列表

员工-标签设计列表

2023-03-27

automa-chrome-v1.27.2.zip 网页端自动化扩展工具-Automa

网页端自动化扩展工具-Automa

2023-03-23

深度学习搜索引擎开发-Java实现-源代码.zip

深度学习搜索引擎开发-Java实现-源代码.zip

2021-07-20

xmlpull_1_0_5

xmlpull_1_0_5_al,

2014-11-03

spring-security3.2

spring-security-3.2.0.M1-dist.zip

2014-01-06

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除