最近这一两周看到不少互联网公司都已经开始秋招提前批面试了。
不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。
最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。
合集:
喜欢本文记得收藏、关注、点赞
今年是大模型场景落地爆发的一年,各大厂商都在将大模型与自身业务相结合。
最近我们星球一成员吐槽字节视觉大模型算法工程师,太难了。。
今天我给大家整理了AIGC以及Diffusion扩散模型的常见面试题,给正在秋招的童靴,有需要赶紧收藏起来。
常问面试题
-
你了解哪些 Diffusion 模型
-
Stable Diffusion 的网络结构
-
谈谈Stable Diffusion中的交叉注意力机制
-
介绍一下self attention 和 cross attention的区别。
-
SD和原始Diffusion模型的区别
-
SD为什么文字生成效果不好以及如何解决
-
SDXL和SD的区别
-
SDXL 中的条件化训练具体怎么做
-
SD 有哪些微调方法
-
训练Stable Diffusion时为什么使用offset Noise?
-
Dreambooth 和 Lora 微调的区别
-
扩散模型有哪些常见的采样方式?
-
介绍一下SD, Dall-E两者的异同
-
GAN 和 Diffusion 模型的区别
-
Dalle-2 的网络结构
-
扩散模型中添加的是高斯噪声,能否使用其他噪声的加噪方式?
-
介绍一下你了解的Diffusion加速方法?
-
为什么DDPM加噪声的程度是一致的?
-
DDDM 和 DDIM 的关系?
-
实现 DDPM 是否需要什么条件?
-
推演 DDPM 公式。
-
介绍CLIP的模型架构、训练方法与损失函数。
-
谈谈AE, VAE和VQ-VAE的区别。
-
介绍一下classifier-free guidance和classifier guidance的区别?
-
图像生成的评估指标有哪些?
精选
- 轻松构建聊天机器人,大模型 RAG 有了更强大的AI检索器
- 一文搞懂大模型训练加速框架 DeepSpeed 的使用方法!
- 保姆级学习指南:《Pytorch 实战宝典》来了
- MoE 大模型的前世今生
- 从零解读 SAM(Segment Anything Model)
- AI 绘画爆火背后:扩散模型原理及实现
- 从零开始构建和训练生成对抗网络(GAN)模型
- CLIP/LLaVA/LLaVA1.5/VILA 模型全面梳理!
- 从零开始创建一个小规模的稳定扩散模型!
- Stable Diffusion 模型:LDM、SD 1.0, 1.5, 2.0、SDXL、SDXL-Turbo 等
- 文生图模型:AE、VAE、VQ-VAE、VQ-GAN、DALL-E 等 8 模型
- 一文搞懂 BERT(基于Transformer的双向编码器)
- 一文搞懂 GPT(Generative Pre-trained Transformer)
- 一文搞懂 ViT(Vision Transformer)
- 一文搞懂 Transformer
- 一文搞懂 Attention(注意力)机制
- 一文搞懂 Self-Attention 和 Multi-Head Attention
- 一文搞懂 Embedding(嵌入)
- 一文搞懂 Encoder-Decoder(编码器-解码器)