过年的气氛还未散去,OpenAI 在视频生成领域又一次实现降维打击?
近日,OpenAI 发布首个视频生成模型 Sora,宣称能够生成长达1分钟的高清视频,甚至可以理解和模拟现实世界。
OpenAI 的王炸登场,不得不让观众震惊之余产生质疑: “谁敢信这些视频出自 AI?”从皮肤纹理到瞳孔睫毛,Sora 的还原度达到了「没有 AI 味」!但 Sora 的脚步并没有停滞。据悉公司正在教授人工智能理解和模拟运动中的物理世界,目标是训练出能够帮助人们解决需要与现实世界互动的问题的模型。世界模型,将不再是天方夜谭吗?
目前 Sora 只面向邀请的制作者和安全专家开放测试,还没有宣布正式的公测时间表。而 OpenAI 公布的堪称「世界模型」的技术报告仍然没有公开具体的训练细节。
那么,Sora 在 OpenAI 的指引下,究竟是如何做到脱离 AI 味?给定 prompt 的前提下,Sora 的发挥空间有多大?Sora 的技术报告能看出来什么?以下,Enjoy:
当全球还沉迷在如何用文本生成文本,以及文本生成图片的时候,OpenAI 就这么掏出来了一个视频生成模型 Sora。简单来讲,Sora 是一个能够根据文本指令或静态图像生成长达1分钟视频的扩散模型,而且视频中还包含精细复杂的场景、生动的角色表情以及复杂的镜头运动——它做到了目前市面上视频模型做不到的东西。
那么 Sora 是如何做到的?
Sora 是一种扩散模型,它能够通过从一开始看似静态噪声的视频出发,经过多步骤的噪声去除过程,逐渐生成视频。Sora 不仅能够一次性生成完整的视频,还能延长已生成的视频。通过让模型能够预见多帧内容,团队成功克服了确保视频中的主体即便暂时消失也能保持一致性的难题。
为此,不少人认为,Sora 为理解和模拟现实世界的模型奠定了基础,并认为这是实现通用人工智能(AGI)的重要步骤。
而之后 OpenAI 发布了 Sora 的技术报告:《Video generation models as world simulators》(视频生成模型作为世界模拟器),其中介绍的技术思路基本印证了我们上面的判断。接下来我们一起来基于有限但足够信息丰富的技术报告来解读一下 Sora 背后的技术。
1 用大语言模型的方法理解视频
Sora 的设计灵感来自于大语言模型,最主要的原因是大语言模型有一个核心功能是通过代码将多种文本形式进行了统一。而 OpenAI 为了训练出 Sora,他们的做法也是将各类视觉数据转化为统一表示的方法。
不过在正式了解 Sora 之前,我们需要先科普一个概念——块(patches)。有点类似于大语言模型中的 token,块指的是将图像或视频帧分割成的一系列小块区域。这些块是模型处理和理解原始数据的基本单元。
对于视频生成模型而言,块不仅包含了局部的空间信息,还包含了时间维度上的连续变化信息。模型可以通过学习 patches 之间的关系来捕捉运动、颜色变化等复杂视觉特征,并基于此重建出新的视频序列。这样的处理方式有助于模型理解和生成视频中的连贯动作和场景变化,从而实现高质量的视频内容生成。
OpenAI 又在块的基础上,将其压缩到低维度潜在空间,再将其分解为“时空块”(spacetime patches)。
晕了是不是,别急,一个一个解释。潜在空间是一个3年前出现的概念,是指一个高维数据通过某种数学变换(如编码器或降维技术)后所映射到的低维空间,这个低维空间中的每个点通常对应于原始高维数据的一个潜在表示或抽象特征向量。但是呢,优化强大的扩散模型往往需要消耗数百个GPU日的计算资源,并且由于其序列评估性质,推理成本较高。因此,本质上来讲潜在空间,就是一个能够在复杂性降低和细节保留之间达到近乎最优的平衡点,极大地提升了视觉保真度。
时空块则是指从视频帧序列中提取出的、具有固定大小和形状的空间-时间区域。相较于块而言,时空块强调了连续性,模型可以通过时空块来观察视频内容随时间和空间的变化规律。
为了制造这些时空块,OpenAI 训练了一个网络,用于降低视觉数据的维度,叫做视频压缩网络。这个网络接受原始视频作为输入,并输出一个在时间和空间上都进行了压缩的潜在表示。Sora 在这个压缩后的潜在空间中进行训练和生成视频。同时,OpenAI 也训练了一个相应的解码器模型,用于将生成的潜在向量映射回像素空间。
刚才咱们也聊了,说这个“块”是非常接近 token 的,那么这些块的作用也应该和 token 差不太多。对于给定的压缩输入视频,OpenAi 就直接提取一系列块作为 Transformer token 使用,然后这些时空块会被进一步编码并传递给 Transformer 网络进行全局自注意力学习。最后利用 Transformer 的强大能力来处理并生成具有不同属性的视频内容。
这一方案同样适用于图像,因为图像可以看作是仅有一帧的视频。基于块的表示方法使得 Sora 能够对不同分辨率、时长和宽高比的视频和图像进行训练。在推理阶段,可以通过在一个适当大小的网格中排列随机初始化的块来控制生成视频的尺寸。
此外,在 Sora 模型的介绍页面虽然提到的都是通过文本来生成视频,但 Sora 还能够接受其他类型的输入,比如图像或视频,以达到图片生成视频、视频生成视频的效果。这一特性使得 Sora 能够执行广泛的图像和视频编辑任务——例如制作完美循环播放的视频、为静态图像添加动画效果、向前或向后延展视频时间轴等。
2 实现对物理世界的“涌现”
在长期的训练中 OpenAI 发现 Sora 模型逐渐拥有了一项新能力,叫做三维一致性。指的是 Sora 能够生成动态视角的视频。同时随着视角的移动和旋转,人物及场景元素在三维空间中仍然保持一致的运动状态。
这个可能对咱们人类来说没什么,但是对于人工智能来说,还是相当厉害的。人工智能理解三维物理世界,跟人类理解三维物理世界的方式不一样,它采用了一种拓扑结构上的理解。注意,这里的拓扑结构不是计算机的拓扑结构,而是拓扑学中的拓扑结构。拓扑结构是一个几何或空间的抽象描述,用于描述集合中元素之间的连接方式和空间属性,而不考虑具体的度量或形状。它关注的是空间中点与点之间的连通关系以及空间的整体形状,而不是具体尺寸或角度等细节。
除此之外,既然视频的视角发生变化,那么相应的纹理映射也要改变。Sora 的真实感非常强,换句话说,纹理映射在拓扑结构上就得非常准确。三维一致性能力使 Sora 能够模拟来自现实世界中人物、动物和环境的某些方面。
一个让人兴奋中带着点害怕的消息是,这些属性并非通过为3D、物体等添加明确的归纳偏置而产生——它们纯粹是规模效应的现象。也就是说,是Sora自己根据训练的内容,判断出了现实世界中的一些物理客观规律,某种程度上,人类如果仅仅是通过肉眼观察,也很难达到这样的境界。
还有一点,视频生成系统面临的一项重大挑战是在生成长视频时保持时间上的连贯性。而 Sora 也能够有效地模拟短程和长程依赖关系。例如,即使人物、动物或物体被遮挡或离开画面,Sora 仍能保持这些元素存在于视线外,等到视角转换到能看到他们的时候,再将这些内容展现出来。同样的,它能够在单个样本中生成同一角色的多个镜头,并在整个视频中保持其外观的一致性。
事实上这点倒没有什么,因为 Sora 是从 transformer 模型中孕育的,而 transformer 模型本身就能通过全局自注意力机制等技术来实现很高的连续性。Sora 只不过是从视频方面阐述了这种连续性而已。
对此,OpenAI 得出了一个结论:视频生成模型是构建通用物理世界模拟器的一条有前景的道路。
Sora 目前所展现的能力表明,它是能通过观察和学习来了解物理规律。就 Sora 的这个理解力,说句实在的比我都强,老师在上面讲课,我只能做到眼睛会了,脑子不会。
3 Sora存在的局限性
不过,Sora 作为一个模拟器存在着不少局限性。Sora 在其生成的48个视频 Demo 中留了不少穿帮画面,例如在模拟基本物理交互(如玻璃破碎)时的准确性不足。
从现有的结果来看,它还无法准确模拟许多基本交互的物理过程,以及其他类型的交互,比如吃食物。物体状态的变化并不总是能够得到正确的模拟,这说明很多现实世界的物理规则是没有办法通过现有的训练来推断的。
在网站首页上,OpenAI 详细列出了模型的常见问题,比如在长视频中出现的逻辑不连贯,或者物体会无缘无故地出现。比如,随着时间推移,有的人物、动物或物品会消失、变形或者生出分身;或者出现一些违背物理常识的闹鬼画面,像穿过篮筐的篮球、悬浮移动的椅子。如果将这些镜头放到影视剧里或者作为精心制作的长视频的素材,需要做很多修补工作。
此外,围绕 Sora 核心技术的技术讨论也有不少值得深入探究的地方。
英伟达高级研究科学家 Jim Fan 认为:Sora 是一款数据驱动的物理模拟引擎,通过一些去噪和梯度计算来学习复杂的渲染、「直觉」物理、长远规划推理和语义基础。它直接输入文本/图像并输出视频像素,通过大量视频、梯度下降,在神经参数中隐式地学习物理引擎,它不会在循环中显式调用虚拟引擎5,但虚拟引擎5生成的(文本、视频)对有可能会作为合成数据添加到训练集中。
Jim Fan 认为,如果不考虑交互,虚拟引擎5是一个(非常复杂的)生成视频像素的过程,Sora 也是一个基于端到端 Transformers 的生成视频像素的过程,它们在相同的抽象层次上,不同的是虚拟引擎5是人工制作的、精确的,而 Sora 纯粹通过数据和“直觉”来学习。
在他看来,目前 Sora 对涌现物理的理解是脆弱的,远非完美,仍会产生严重、不符合常识的幻觉,还不能很好掌握物体间的相互作用。
关于涌现,该篇技术报告写道:我们发现,当大规模地进行训练时,视频模型展现出许多有趣的涌现能力。这些能力使得 Sora 能够模拟现实世界中人类、动物和环境的某些方面。这些属性并没有任何针对3D、物体等的明确归纳偏见——它们纯粹是规模效应的现象。
而一直将「世界模型」作为研究重心的图灵巨头 LeCun 表示:「仅根据文字提示生成逼真的视频,并不代表模型理解了物理世界。生成视频的过程与基于世界模型的因果预测完全不同」。
接下来,LeCun 更详细地解释道:
虽然可以想象出的视频种类繁多,但视频生成系统只需创造出「一个」合理的样本就算成功。
而对于一个真实视频,其合理的后续发展路径就相对较少,生成这些可能性中的具代表性部分,尤其是在特定动作条件下,难度大得多。
此外,生成这些视频后续内容不仅成本高昂,实际上也毫无意义。
更理想的做法是生成那些后续内容的「抽象表示」,去除与我们可能采取的行动无关的场景细节。
这正是 JEPA(联合嵌入预测架构)的核心思想,它并非生成式的,而是在表示空间中进行预测。
然后,他用自家的研究 VICReg、I-JEPA、V-JEPA 以及他人的工作证明:
与重建像素的生成型架构,如变分自编码器(Variational AE)、掩码自编码器(Masked AE)、去噪自编码器(Denoising AE)等相比,「联合嵌入架构」能够产生更优秀的视觉输入表达。
当使用学习到的表示作为下游任务中受监督头部的输入(无需对主干进行微调),联合嵌入架构在效果上超过了生成式架构。
随后,Perplexity AI 的首席执行官表示:Sora 虽然令人惊叹,但还没有准备好对物理进行准确的建模。并且 Sora 的作者非常机智,在博客的技术报告部分提到了这一点,比如打碎的玻璃无法很好地建模。很明显短期内,基于这样复杂的世界仿真的推理,是无法在家用机器人上立即运行的。
同时,OpenAI 在不停提到“大力出奇迹”的效果,但对于业内极为关注的 Sora 训练数据源因公司遵循“ClosedAI”原则,并没有透露相关信息。目前 Sora 是没有内测申请渠道的,尚处于秀肌肉阶段。与此同时,OpenAI 对新融资的迫切也让外界对该项技术的真实效果持有观望态度。
如今看来,OpenAI 显然在把 Sora 描述成它一直坚持的Scaling law的又一次胜利——没有多么纯粹原创的技术,很多技术成分早已存在,但它却比所有人都更笃定地走了下去,并用足够多的资源在巨大的规模上验证了它。
任何一场变革都可能在一夜之间发生。但站在当下,不要低估 AI 技术的进步速度,也不要过度神话 Sora 或其他 AI 产品。
图 | Unsplash
本文来自微信公众号“硅星人Pro(ID:Si-Planet)” ,作者:苗正,王兆洋,原文标题“一石激起千层浪,揭秘Sora的技术报告” ,36氪出海经授权发布。
加入36氪出海学习交流群
目前,36氪出海学习交流群已经吸引超过13000位来自国内外初创企业、行业巨头、投资机构等出海人加入。在出海社群里,我们面向群成员挑选整理每日全球跨境资讯,帮助出海人把握最新动态;定期组织出海交流活动,链接出海生态圈,寻找潜在合作伙伴!欢迎添加36氪出海小助手微信(ID:wow36krchuhai-xzs2)申请入群,一同出海!