腾讯混元文生图开源模型推出小显存版本,仅需 6G 显存即可运行

腾讯宣布开源小显存版本的混元文生图模型,降低至 6G 显存即可运行,方便个人电脑本地部署。同时,混元 DiT 模型升级至 1.2 版本,图片质感与构图提升。混元 Captioner 打标模型也正式开源,支持中英文双语,优化文生图场景,能更好地理解和表达中文语义。混元 DiT 模型及插件可通过 Hugging Face Diffusers 和图形化界面 Kohya 调用,提高易用性
原文链接:《腾讯混元DiT再升级:推出6G小显存版本,支持Kohya训练》
在这里插入图片描述

  1. 开源小显存版本:

    • 腾讯混元DiT推出了一个仅需6G显存即可运行的小显存版本,使得个人电脑用户也能轻松部署和使用。
  2. 适配Diffusers库:

    • 该小显存版本以及LoRA、ControlNet等插件都已适配至Diffusers库,方便开发者使用。
  3. 支持Kohya训练:

    • 新增对Kohya图形化界面的支持,使得开发者可以低门槛地训练个性化LoRA模型。
  4. 混元DiT模型升级:

    • 混元DiT模型升级至1.2版本,在图片质感与构图方面有所提升。
  5. 混元Captioner模型开源:

    • 腾讯宣布混元文生图打标模型“混元Captioner”正式开源,支持中英文双语,专门针对文生图场景优化,能提供结构化、完整和准确的图片描述。
      在这里插入图片描述
  6. 提升数据质量:

    • 混元Captioner通过注入人工标注、模型输出、公开数据等提升描述的完整性,同时注入大量背景知识,提高描述的准确性和完整性。
  7. 模型易用性提升:

    • 腾讯混元DiT模型通过推出小显存版本、适配Kohya训练界面和升级至1.2版本,进一步降低了使用门槛,提升了图片质量。
  8. 混元DiT生态建设:

    • 混元DiT自全面开源以来,持续建设生态,包括专属加速库、推理代码开源、LoRA和ControlNet插件等。

混元官网

https://dit.hunyuan.tencent.com

代码

https://github.com/Tencent/HunyuanDiT

模型

https://huggingface.co/Tencent-Hunyuan/HunyuanDiT

论文

https://tencent.github.io/HunyuanDiT/asset/Hunyuan_DiT_Tech_Report_05140553.pdf
  • 9
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小小鱼儿小小林

赞赏是鼓励,点赞是美意

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值