Stable diffusion到底能在建筑设计工作中做到哪些?

本文讨论了人工智能在建筑设计中的创新应用,尤其是StableDiffusion(SD)的功能与局限性,如激发灵感、风格转换等,同时指出AIGC技术的未来发展潜力及其在游戏和计算领域的应用。
摘要由CSDN通过智能技术生成

近期,人工智能的发展势头依然迅猛,各种AI软件不断更新迭代,为各行各业带来了新的变革。ChatGPT和Midjourney等软件依然是业内的佼佼者,而Stable Diffusion作为开源软件,已成为多个行业的福音。Sora的视频制作效果更是让人惊叹不已,而其他通过AI生成视频、音乐、PPT文本、文案、小说、论文、旅游攻略等应用也层出不穷,各展其能,为行业提高工作效率的同时,也拓展了市场。然而,这一切的同时也引发了一些人的焦虑,感觉自己被边缘化。

最近我得到了一份来自某建筑名企的内部文件,里面详细讨论了人工智能在建筑设计中的创新应用。该文件清晰地分析了传统建筑设计工作流程的痛点,并介绍了结合人工智能辅助的全新工作流的优势,同时也提及了Stable Diffusion(SD)的局限性。首先,让我们来看一下SD能够实现的功能:

  1. 激发灵感:通过文生图抽卡跑图,或许可以在图上找到令你动容的某些细节;

  2. 制作抽象概念图;

  3. 海选意向;

  4. 高清修复;

  5. 风格转换;

  6. 炼制独特风格的Lora模型;

  7. 线稿生图,可以输入灵感手稿、手绘线稿、SU体块线稿或细模线稿等,结合Lora生成效果图;

  8. 局部重绘,迭代修改方案;

  9. 风格迁移……

然而,SD也有其局限性:

  1. 随机性;

  2. SD不是渲染器,无法精确控制尺寸;

  3. 技术限制意味着目前AI绘图只能应用于概念方案阶段。

    — — — — — — — — 分隔线 — — — — — — — —

许多还在建筑设计领域苦苦耕耘的同行或多或少都了解这些内容,大家可能对SD的图像输出效果比较感兴趣,也有些对此抱有较大存疑。接下来,我将尝试展示一些SD的图像输出效果。本期先展示灵感手稿的图像输出。

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

不知这效果,你觉得怎么样!文章使用的AI绘画SD整合包、各种模型插件、提示词、AI人工智能学习资料都已经打包好放在网盘中了,有需要的小伙伴文末扫码自行获取。

写在最后

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除
  • 24
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Stable Diffusion 是一种基于扩散模型的生成式人工智能技术,通常用于文本和图像内容的创造,尤其是高质量的自然语言描述和图像合成。以下是几种常见的 Stable Diffusion 模型: 1. **Diffusion Probabilistic Model (DPM)**: 这种模型的核心是一个概率过程,通过逐步增加噪声来将原始信号转化为最终的随机输出。在 Stable Diffusion ,DPM 可能是指 UNet 或类似结构的解码器网络,用于从噪声样本恢复原始内容。 2. **Latent Diffusion Model (LDM)**: LDM 是对 DPM 的改进版本,它的工作原理是在潜在空间进行扩散,使得模型能够更好地控制生成的内容并提高多样性。 3. **CLIP-guided Diffusion**: 结合了 CLIP( Contrastive Language-Image Pretraining)这样的预训练模型,这种变体允许用户通过文本提示指导生成的过程,提供更精确的指引。 4. **InstructGPT**: 类似于 DALL-E 2,它是基于类似架构但针对特定指令处理优化的模型,能够在给定上下文生成相关的高质量内容。 5. **GLIDE**: 由 Stability AI 公司开发的一个知名模型,它擅长结合文本提示创建令人信服的图像,并支持更复杂的设计和插图任务。 6. **Chaos:** Facebook 的另一个项目,它也利用了类似的技术,提供了更强的创意灵活性和多样性。 每种模型都有其特点和应用场景,用户可以根据具体需求选择最适合的模型。对于更详细的信息或最新进展,建议查阅最新的研究论文和官方文档。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值