9.28学习笔记

1.ping 网址

2.ssh nscc/l20

3.crtl+,打开vscode的setting

4.win 10修改ssh配置文件及其密钥权限为600 - 晴云孤魂 - 博客园

 

整体来看:

    使用transformer作为其主干网络,代替了原先的UNet
    在latent space进行训练,通过transformer处理潜在的patch
    输入的条件(timestep 和 text/label )的四种处理方法:
        In-context conditioning: 将condition和input embedding合并成一个tokens(concat),不增加额外计算量
        Cross-attention block:在transformer中插入cross attention,将condition当作是K、V,input当作是Q
        Adaptive layer norm (adaLN) block:将timestep和 text/label相加,通过MLP去回归参数scale和shift,也不增加计算量。并且在每一次残差相加时,回归一个gate系数。
        adaLN-Zero block:参数初始化为0,那么在训练开始时,残差模块当于identical function。
    整体流程:patchify -> Transfomer Block -> Linear -> Unpatchify。 注意最后输出的维度是原来维度的2倍,分别输出noise和方差。

由下图可见,adaLN-Zero最好。然后就是探索各种调参效果,此处略。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值