1.ping 网址

2.ssh nscc/l20

3.crtl+,打开vscode的setting

4.win 10修改ssh配置文件及其密钥权限为600 - 晴云孤魂 - 博客园

整体来看:

    使用transformer作为其主干网络,代替了原先的UNet
    在latent space进行训练,通过transformer处理潜在的patch
    输入的条件(timestep 和 text/label )的四种处理方法:
        In-context conditioning: 将condition和input embedding合并成一个tokens(concat),不增加额外计算量
        Cross-attention block:在transformer中插入cross attention,将condition当作是K、V,input当作是Q
        Adaptive layer norm (adaLN) block:将timestep和 text/label相加,通过MLP去回归参数scale和shift,也不增加计算量。并且在每一次残差相加时,回归一个gate系数。
        adaLN-Zero block:参数初始化为0,那么在训练开始时,残差模块当于identical function。
    整体流程:patchify -> Transfomer Block -> Linear -> Unpatchify。 注意最后输出的维度是原来维度的2倍,分别输出noise和方差。

由下图可见,adaLN-Zero最好。然后就是探索各种调参效果,此处略。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部