• 我的订阅
  • 科技

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

类别:科技 发布时间:2024-10-30 09:53:00 来源:机器之心Pro

大型语言模型(LLM)的出现统一了语言生成任务,并彻底改变了人机交互。然而,在图像生成领域,能够在单一框架内处理各种任务的统一模型在很大程度上仍未得到探索。近日,智源推出了新的扩散模型架构 OmniGen,一种新的用于统一图像生成的多模态模型。

OmniGen 具有以下特点:

    统一性:OmniGen 天然地支持各种图像生成任务,例如文生图、图像编辑、主题驱动生成和视觉条件生成等。此外,OmniGen 可以处理经典的计算机视觉任务,将其转换为图像生成任务。 简单性:OmniGen 的架构高度简化。此外,与现有模型相比,它更加用户友好,可以通过指令完成复杂的任务,而不需要冗长的处理步骤和额外的模块 (如 ControlNet 或 IP-Adapter),从而大大简化了工作流程。 知识迁移:受益于统一格式的学习,OmniGen 有效地跨不同任务迁移知识,应对未见过的任务和领域,并展示新颖的功能。我们还探讨了模型的推理能力和思维链机制的在图像生成领域的潜在应用。

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

Paper: https://arxiv.org/pdf/2409.11340 Code: https://github.com/VectorSpaceLab/OmniGen Demo: https://huggingface.co/spaces/Shitao/OmniGen

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

基于 OmniGen 的通用能力,可实施更灵活的图像生成,以上展示一个简单 Pipeline:文本生成图像,编辑生成图像的部分元素,根据生成图像的人体姿态生成重绘图像,从另一图像中提取所需对象与新图像融合。

一、介绍

近年来,许多文生图模型在生成式 AI 的浪潮中脱颖而出。然而,这些出色的专有模型仅能基于文本生成图像。当用户产生更灵活、复杂、精细等的图像生成需求时,往往需要额外的插件和操作。

例如,若想参考任一姿态生成图像,常规方法是:用姿态检测器从参考图像中估计姿态作为条件输入,并加载对应的 Controlnet 插件,最后提取条件输入的特征馈入扩散模型生成图像。

此外,若想基于合照中的特定人物生成新图像,流程更加繁琐,需要裁剪图像以确保结果图像仅包含目标人物。

而诸如 InstandID 等方法还需使用额外的人脸检测器提取面部信息,并用面部编码器提取特征以输入模型。

值得注意的是,各种不同的生成任务甚至还需更多不同的插件和操作,如此复杂、琐碎而冗长的工作流极大地增加了训练和应用的成本。然而,即便如此繁琐,有时也仍难以满足一般的图像生成的需求,例如基于指定多张照片中的实体生成新图像。

相反,在文本生成领域,以 ChatGPT 为代表的模型可通过人类指令直接处理各种文本任务。那么,在图像生成领域,能否通过单个支持多种输入且耦合多项能力的模型,基于用户指令完成各种生成任务,而无需各种繁杂的流程吗?

为解决这一挑战性问题,智源发布了统一图像生成模型 OmniGen。OmniGen 模型具有良好的简洁性和易用性,集成了多种基础图像生成任务,包括但不限于:文生图、图像编辑、角色一致性生成、基于视觉条件的生成等。OmniGen 支持基于任意多模态的文图指令完成任务,而无需任何其他额外插件和操作。

二、能力

OmniGen 集多项能力于一体,包括但不限于:

    文本到图像生成 (Text to Image Generation) 指代表达生成 (Referring Expression Generation) 通用图像条件生成 (General Image Conditional Generation) 图像编辑 (Image Edit) 经典计算机视觉任务:图像去噪、边缘检测、姿态估计等 一定的上下文学习能力 (In-context Learning)

以下简要展示部分能力效果:

2.1 文本到图像生成

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

2.2 指代表达生成

OmniGen 具备类似 InstandID、Pulid 等模型生成角色一致性图像等能力,即:输入具有单个对象的图像,理解并遵循指令,输出基于该对象的新图像。

同时,OmniGen 具有更高阶的能力:指代表达生成能力,我们把这种能力定义为能够从包含多个对象的图像中,识别指令所指代的对象并生成新的图像。

例如,OmniGen 可根据指令直接从多人图像中定位目标对象,并生成遵循指令的新图像,而无需任何额外的模块和操作:

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

更多样例:

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

2.3 通用图像条件生成

OmniGen 不仅支持类似 ControlNet 根据特定显式条件生成图像的能力,还同时具备处理经典计算机视觉任务的能力(如人体姿态估计、深度估计等)。

因此,OmniGen 可凭借单个模型完成整个 ControlNet 流程:直接使用 OmniGen 对原图提取视觉条件,并基于所提取的条件生成图像,无需额外处理器。

同时,OmniGen 还能更进一步简化中间流程,一步出图:直接输入原图,输入指令「Following the human pose (or depth mapping) of this image, generate a new image:...」,就可根据输入图像的人体姿态或深度图关系生成新图像。

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

2.4 图像编辑

OmniGen 具备良好的图像编辑能力,并且可以在一次运行中同时执行多条编辑指令,例如:

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

2.5 更多能力

OmniGen 具备潜在的推理能力,可以处理对模型理解和推断能力具有一定要求的非显式查询指令。

例如,要求模型删除图中能装水的物品,则模型能够理解和推断出指令涉及的图中物体并删除:

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

另一方面,OmniGen 具有一定程度的上下文学习能力,可根据参考样例对图像进行处理。例如,输入一个分割皇后象棋的输入 - 输出配对样例 (Example),模型能识别并分割新输入图像中对应的物体:

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

思维链(Chain-of-Thought, CoT)方法将任务分解为多个步骤,并按顺序求解每个步骤以获得准确的最终答案,从而显著提高了 llm 的性能。我们考虑是否可以将类似的替代方案应用于图像生成。受人类绘画的基本方式的启发,我们希望模仿一步一步的绘画过程,从空白画布上迭代地生成图像。我们进行了初步的探索,微调后模型能够模拟人类行为一步步的生成图片,进一步的优化留给以后的研究。

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

OmniGen 的能力包括但不限于以上内容,还包括基本的图像去噪、边缘提取等能力。模型权重和代码已开源,用户可以自行探索更多 OmniGen 的能力。

三、模型

OmniGen 的核心设计原则是:简洁和有效。因此,我们最大程度舍弃了各种额外模块。OmniGen 的基本架构为:一个 Transformer 模型和一个 VAE 模块,共 3.8B 参数。其中,Transformer 继承于 Phi3-mini 模型,图像内部改用双向注意力 (Bidirectional Attention) 以契合图像数据特性。整体架构如下所示:

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

为实现强大的通用和泛化能力,研究人员需要基于大规模和多样化的数据集训练模型。然而,在图像生成领域,尚无一个可用的通用数据集。为此,我们构建了首个大规模且多样化的统一图像生成数据集 X2I,意为「Anything to Image」。其中,不同任务的数据格式被重新组织和统一,以便于管理和使用。X2I 数据集包含约 1 亿图像,未来经审查等流程后将开源,旨在进一步推动通用图像生成领域的发展。下图简要展示了 X2I 数据集的一些示例:

新扩散模型OmniGen一统图像生成,架构还高度简化、易用

四、小结与展望

总之,OmniGen 的统一图像生成范式,不但有助于执行各种下游任务,而且有利于组合各种能力满足更通用的需求。当前,OmniGen 的报告、权重和代码等已开源,欢迎社区共同参与对 OmniGen 潜在能力的发掘、基本性能的提升和广泛应用的探索。

OmniGen 模型是对统一图像生成的初步尝试,还有很大的提升空间。未来,智源将进一步改进模型基本能力,拓展更多有趣的功能。同时,微调代码已发布,用户可简单对其进行微调,由于 OmniGen 的输入形式非常多样,用户可自行定义各式各样的微调任务,赋予模型更多有意思的能力。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-10-30 11:45:10

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

...频聊天等能力。米拉·穆拉蒂表示,“这是我们第一次在易用性方面真正向前迈出了一大步。”此前,大模型在各个领域的应用主要集中在文生文、文生图之上,今年初Sora的发布则推动文生视
2024-05-14 13:59:00
百度文心一格总架构师肖欣延:历程坎坷但未来已至,大模型赋能智能内容生成|WISE2023颠覆AIGC产业发展峰会
...长视频生成等,将得到大幅改善;最后,随着AIGC效果和易用性的提升,内容生成流程将极度简化、便捷。在演讲的最后,肖欣延也表示,AI目前面临的事实一致性、不可控等问题,将来整个
2023-05-26 15:52:00
...储、提炼、共享至智慧化和模型化生成的全过程,以简便易用的组织知识管理业务系统融合大模型能力的形式,帮助客户更有效地管理和利用知识资源,简化工作流程,显著提高服务质量和效率。该
2024-02-27 17:41:00
iPad可用AI绘画交互编辑神器火了,网友:颤抖吧PS
...显著优于基线系统,包括复杂性和效率、一致性和集成、易用性以及总体满意度4个方面。看来体验过的用户反馈都不错呢!未来工作团队还表示,这将是一个长期的工作,未来他们的目标是扩展系
2024-11-21 09:43:00
OpenAI发布文生视频模型Sora,奥尔特曼选取网友提示词
...用扩散模型(diffusionprobabilisticmodels)技术,基于Transformer架构,但为了解决Transformer架构核心组件注意力机制的长文本
2024-02-16 18:44:00
送技术支持送资源!联发科携手产业伙伴启动天玑AI先锋计划
...的生成速度,功能包所占用的存储空间也可以大幅减少。易用的Neuron Studio 集成开发环境,跳出传统的代码开发环境,可为开发者提供高度集成的,一站式、可视化开发环境 ,
2024-05-08 10:06:00
星环科技Sophon 3.2发布,通过“六易三仓两中心”实现新一代AI平民化
...理服务、基于Spark on K8s的资源统一调度等,让GPU资源易用、分布式能力易用、系统运维易用。二、三仓——实现多模态数据管理Sophon 3
2023-05-31 16:00:00
更快、更强、更可控:智谱“起舞弄清影”,视频生成卷出新高度!
...多方的细节期望。如何实现这一点?这离不开智谱全自研架构的底色——从创立之初,智谱就“自研以明志”,从数据到训练集群运维再到核心算法,都实现了全方位的自研。在视频生成领域,智谱
2024-07-27 10:00:00
Find X7正式发布!天玑9300带来极致性能
...,这需要芯片有很高的性能和能效。天玑9300搭载第7代APU架构,最高可支持330亿参数的AI大语言模型,同时还有极低的功耗
2024-01-09 09:51:00
更多关于科技的资讯: