新开源 AI 系统 OmniGen 2:像 GPT-4o 一样融合了图像和文本生成

近日,北京研究院推出了全新的系统——OmniGen2。这一系统专注于文本到图像的生成、图像编辑和上下文图像创作。

年发布的第一代 OmniGen 相比,OmniGen2 采用了两条独立的解码路径: 一条用于文本生成,另一条用于,且各自拥有独立的参数和解耦的图像标记器。这种设计让模型在保持文本生成能力的同时,有效地提升了多模态语言模型的表现。

OmniGen2 的核心是一个基于 Qwen2.5-VL-3B 变换器的大型多模态语言模型 (MLLM)。在图像生成方面,该系统使用了一种自定义的,参数量达到约 40 亿。模型在遇到特殊的 「<|img|>」 标记时会自动切换到图像生成模式。值得一提的是,OmniGen2 能够处理多种提示和艺术风格,但其生成的照片级图像在清晰度上仍有待提升。

为了训练 OmniGen2,研究团队使用了大约 1.4 亿张来自开源数据集和专有集合的图像。此外,他们还开发了新技术,通过提取视频中的相似帧 (例如,一个微笑和不微笑的面孔),并利用语言模型生成相应的编辑指令。

OmniGen2 的另一大亮点是其反思机制,能够让模型自我评估生成的图像,并在多个轮次中进行改进。该系统可以发现生成图像中的缺陷,并提出具体的修正建议。

为了评估该系统的性能,研究团队引入了 OmniContext 基准测试,包括角色、物体和场景三大类,每类下有八个子任务和各 50 个示例。评估是通过 -4.1 进行的,主要打分标准包括提示的准确性和主题的一致性。OmniGen2 的总分为 7.18,超越了所有其他开源模型,而 GPT-4o 的得分为 8.8。

尽管 OmniGen2 在多个基准测试中表现优异,但仍存在一些不足之处: 英文提示的效果优于中文,身体形态的变化较为复杂,输出质量也受到输入图像的影响。对于模糊的多图像提示,系统需要明确的对象放置指示。

研究团队计划将模型、训练数据和构建管道发布到 HuggingFace 平台。https://huggingface.co/OmniGen2/OmniGen2

划重点:

🌟OmniGen2 是一个开源的图文生成系统,采用独立的文本和图像解码路径。

🎨它能够处理多种艺术风格的图像生成,并具备自我反思和改进功能。

📈OmniGen2 在多个基准测试中表现出色,特别是在图像编辑方面创下了新的开放源代码模型纪录。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

知乎 「直答」 升级知识库功能,深度融合社区内容打造沉浸式 AI 问答体验

2025-7-1 1:21:04

AI 资讯

Gemini 定时任务上线!一句话解锁 AI 自动干活,效率起飞

2025-7-1 1:21:22

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索