文生图的开源大模型
1.Playground v2.5
-
*Huggingface模型下载:*https://huggingface.co/playgroundai
-
*AI**快站模型免费加速下载:*https://aifasthub.com/models/playgroundai
Playground v2.5 在审美质量方面显著超越当前最先进的开源模型 SDXL 和 PIXART-α,以及 Playground v2。由于 Playground V2.5 和 SDXL 之间存在较大的性能差距,因此官方还将它与当前闭源模型如 DALL-E 3 和 Midjourney 5.2 进行了审美质量比较,发现 Playground v2.5 也比这些闭源模型相比表现会更好。
2.腾讯混元DiT架构大模型
链接:https://github.com/Tencent/HunyuanDiT
3.Stable Diffusion
4.Open Sora
文生视频,复现的sora论文
[github.com](https://github.com/hpcaitech/Open-Sora)
5.Stable Video Diffusion
是Stability Al发布的视频生成大模型。
https://github.com/Stability-AI/generative-models
6.MoneyPrinterTurbo
github地址:https://github.com/harry0703/MoneyPrinterTurbo
7.sora平替! StreamingT2V:根据文字提示生成2分钟的视频
https://t.co/h8nsZR8IHv
8.AnimateDiff:成熟的图生视频sd插件!
开源地址:https://github.com/guoyww/animatediff
9.StoryDiffusion:开源的AI故事创作项目,支持生成剧情漫画和故事视频!
github地址:https://github.com/HVision-NKU/StoryDiffusion
10.高效方法!Video-LAVIT:开源图文视频生成大模型! 2
项目地址:https://video-lavit.github.io
11.想动哪里点哪里!创新图生视频模型"Follow Your Click"开源!
想动哪里点哪里!创新图生视频模型"Follow Your Click"开源!
12.Animate Anyone:自动生成动画元素,让照片起舞!
https://github.com/HumanAIGC/AnimateAnyone
13.MuseV:生成表情自然的虚拟人视频新工具!
项目地址:https://github.com/TMElyralab/MuseV
14.腾讯AniPortrait比阿里EMO先开源!
github地址:https://github.com/Zejun-Yang/AniPortrait
15.Champ :国外开源的让照片跳舞的AI项目!
https://github.com/fudan-generative-vision/champ
16.DreamTalk :单张图像一键生成说话视频!
github:https://github.com/ali-vilab/dreamtalk
17.开源!AniTalker:一张照片和输入音频生成生动的能说话的面部视频
GitHub: https://github.com/X-LANCE/AniTalker
18.VASA-1:实现从静态图像和一段语音生成逼真的对话面部动画
https://www.microsoft.com/en-us/research/project/vasa-1/
参考链接: