[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

07-19 1071阅读

1、目的

        CLIP + DDPM进行text-to-image生成

2、数据

        (x, y),x为图像,y为相应的captions;设定[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents为CLIP的image和text embeddings

3、方法

[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

                                [DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

        1)CLIP

                学习图像和文本的embedding;在训练prior和decoder时固定该部分参数

        2)prior model [DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

                从给定的文本caption(或CLIP text embedding)中生成CLIP image embedding

                -> Autoregressive (AR) prior

                        用PCA对CLIP image embeddings降维(1024 - 319),然后排序和数值化

[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

                        将text caption和CLIP text embedding编码为sequence的prefix

                -> Diffusion prior

                        decoder-only Transformer

                        casual attention mask with causal attention mask on a sequence (encoded text, CLIP text embedding, embedding for the diffusion timestep, noised CLIP image embedding, final embedding whose output from the Transformer is used to predict the unnoised CLIP image embedding)

                        同时生成两个[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents,选择与[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents的点积更大的那一个

                        不预测[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents,而是直接预测[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

                        [DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

        3)CLIP image embedding decoder [DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

                -> 用diffusion models、以CLIP image embeddings作为条件生成图像(可能会用到text caption)。直接将embedding作为采样起点效果不佳。

                -> 映射和添加CLIP embeddings到existing timestep embedding

                -> 将CLIP embedding映射到4个额外的context token中,和GLIDE text encoder的输出并联

                -> 因为是CLIP image encoder的逆过程,因此本文的方法也被称为unCLIP

                -> 尝试沿用GLIDE中的text conditioning,但作用不大

                -> 训练细节

                        10%的概率随机设置CLIP embedding(或learned embedding)为0,实现classifier-free guidance;50%的概率随机去除text caption

                        两个upsample网络,64x64 - 256x256 - 1024x1024;第一个上采样阶段采用gaussian blur,第二个上采样阶段采用BSR degradation;训练时随机裁剪1/4大小的图像,推理时则用正常大小;只用spatial convolution,不用attention层;网络为unconditional ADMNets

                -> 备选方案:直接用caption或者text embeddings作为条件,不用prior

[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

4、应用

        1)non-deterministic,给定一个image embedding,可以生成多个图像

[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents        2)通过插值image embedding,可以对生成图像进行插值

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        [DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

        3)通过插值text embedding,可以对生成图像进行插值

                ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        [DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

                                                [DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

        4)可以有效抵挡CLIP容易受到影响的typographic attack

[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

5、局限性

        1)对于不同物品和属性的关联能力不如GLIDE。因为CLIP embedding本身不关联物品和属性,而decoder也会mix up属性和物品

[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

        2)无法写出连贯的文本。因为CLIP本身不编码拼写信息,BPE编码也会模糊单词的拼写

[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

        3)无法生成复杂场景中的细节。因为模型在低分辨率下训练,然后再上采样

[DALL·E 2] Hierarchical Text-Conditional Image Generation with CLIP Latents

        4)生成效果越好,制造欺骗性或有害图片的能力就更大

VPS购买请点击我

文章版权声明:除非注明,否则均为主机测评原创文章,转载或复制请以超链接形式并注明出处。

目录[+]