产品名称:DiffSensei
产品简介:DiffSensei是北京大学、上海AI实验室及南洋理工大学的研究人员共同推出的漫画生成框架,能生成可控的黑白漫画面板。DiffSensei整合基于扩散的图像生成器和多模态大型语言模型(MLLM),实现对漫画中多角色外观和互动的精确控制。
详细介绍:
DiffSensei是什么
DiffSensei是北京大学、上海AI实验室及南洋理工大学的研究人员共同推出的漫画生成框架,能生成可控的黑白漫画面板。DiffSensei整合基于扩散的图像生成器和多模态大型语言模型(MLLM),实现对漫画中多角色外观和互动的精确控制。框架用掩码交叉注意力机制和MLLM适配器,根据文本提示动态调整角色特征,包括表情、姿势和动作,生成具有连贯性和视觉吸引力的漫画面板。DiffSensei引入MangaZero数据集,支持多角色、多状态的漫画生成任务。
DiffSensei的主要功能
- 定制化漫画生成:根据用户提供的角色图像和文本提示生成漫画,支持用户对角色的外观、表情、动作进行定制。
- 多角色控制:框架支持多角色场景的漫画生成,处理角色间的互动和布局。
- 文本兼容的身份适配:基于MLLM,根据文本提示动态调整角色特征,让角色的表现与文本描述相匹配。
- 精确布局控制:用掩码交叉注意力机制,精确控制角色和对话的布局,无需直接像素传输。
- 数据集支持:引入MangaZero数据集,一个大规模的、为多角色、多状态漫画生成任务设计的标注数据集。
DiffSensei的技术原理
- 整合MLLM和扩散模型:结合MLLM作为文本兼容的身份适配器和基于扩散的图像生成器,生成定制化的漫画面板。
- 掩码交叉注意力(Masked Cross-Attention):复制关键和值矩阵,在每个交叉注意力层中创建独立的角色交叉注意力层,实现角色布局的精确控制。
- 对话布局编码(Dialog Layout Encoding):引入可训练的嵌入层表示对话布局,将对话嵌入与噪声潜在表示相结合,实现对话位置的编码。
- MLLM作为特征适配器:MLLM接收源角色特征和面板标题作为输入,生成与文本兼容的目标角色特征,动态调整角色状态。
- 多角色特征提取:用CLIP和图像编码器提取局部图像特征和图像级特征,基于特征提取器处理,避免直接从参考图像编码细粒度空间特征。
- 扩散损失和语言模型损失:在训练MLLM时,计算语言模型损失(LM Loss)约束输出格式,均方误差损失(MSE Loss)指导基于面板标题的目标角色特征,计算扩散损失确保编辑后的特征与图像生成器保持一致。
DiffSensei的项目地址
- 项目官网:jianzongwu.github.io/projects/diffsensei
- GitHub仓库:https://github.com/jianzongwu/DiffSensei
- arXiv技术论文:https://arxiv.org/pdf/2412.07589
DiffSensei的应用场景
暂无评论...