Command Palette
Search for a command to run...

摘要
能够同时理解和生成视觉内容的统一多模态大语言模型(LLMs)具有巨大的潜力。然而,现有的开源模型在这些能力之间往往面临性能权衡的问题。本文提出 Manzano,一种简单且可扩展的统一框架,通过结合混合图像分词器与精心设计的训练策略,显著缓解了这一矛盾。一个共享的视觉编码器为两个轻量级适配器提供输入,分别生成用于图像到文本理解的连续嵌入,以及用于文本到图像生成的离散标记,二者均在统一的语义空间中表示。一个统一的自回归大语言模型以文本和图像标记的形式预测高层语义,随后通过辅助的扩散解码器将图像标记转换为像素。该架构结合在理解与生成数据上统一的训练策略,实现了两种能力的可扩展联合学习。Manzano 在统一模型中取得了当前最先进的性能,且在文本丰富的评估任务上与专用模型相比也具有竞争力。我们的研究发现,任务间冲突极小,且随着模型规模的扩大,性能持续提升,验证了采用混合分词器的设计选择的有效性。