Runway 推出了 Gen-3——AI 视频取得了显著进展


7 个月前

Runway,作为开创性的 AI 视频生成平台之一,推出了其第三代模型,这标志着技术的重大进步,并有可能使其成为顶尖的 AI 视频生成器之一。

正如 OpenAI 追求人工通用智能一样,Runway 的最终目标是开发通用的世界模型。这涉及创建一个能够构建环境内部表征的 AI 系统,并利用它在该空间内模拟事件。

Gen-3 Alpha,Runway 最新的模型,是公司朝着实现这一长期愿景迈出的最接近的一步。根据 Runway 的说法,这个新模型将增强平台上所有图像和文本到视频的工具,包括 Motion Brush 和其他文本到图像等功能。

Runway 尚未具体说明 Gen-3 何时会取代当前的 Gen-2 模型,但他们已宣布为 Gen-3 提供新的安全措施。这些措施包括增强的视觉审核和实施 C2PA 标准,以便追踪各种媒体类型的来源。

这标志着 AI 视频模型新一波进展的最新成果,这些模型具有更长的剪辑和增强的运动效果。值得注意的例子包括 OpenAI 的 Sora、Luma Labs 的 Dream Machine 和 Kling。

Runway 表示,Gen-3 是一系列在新开发基础设施上训练的首个模型。这种基础设施旨在进行大规模的多模态训练,提高保真度、一致性和运动效果。

从 Sora 中可以得出的一个关键结论是,规模至关重要;增加计算能力和数据可以大大提升模型的性能。

新模型同时在视频和图像上进行训练,Runway 声称这将提升文本到视频提示的视觉质量。

此外,新模型将启用新的工具,提供对结构、风格和运动等元素的更详细控制。

我还没有机会亲自测试 Gen-3,因为它仍处于 alpha 模式,但现有的视频表明在运动和遵循提示方面有显著改善。

每个视频的时长约为十秒,几乎是默认 Luma 视频长度的两倍,且与 Sora 视频的长度相当。这一时长也几乎是当前 Runway Gen-2 视频的三倍。

None

提示:“在日本城市中,火车高速行驶时,窗户上映出一个女人的微妙倒影。”

None

提示:“一个宇航员在里约热内卢的巷子里奔跑。”

None

提示:“FPV 飞行穿过色彩斑斓的珊瑚环绕的水下郊区街道。”

None

提示:“夜间手持跟踪镜头,跟随一个脏蓝色的气球在废弃的老欧洲街道上漂浮。”

None

提示:“一只蚂蚁从巢穴中爬出的特写镜头。镜头拉远,展现出山丘之外的邻里。”

None

提示:“镜头拉近一个年轻女性的脸,她坐在空荡荡的学校体育馆中间的长椅上。”

None

提示:“一架 FPV 无人机穿越悬崖上的城堡。”

FluxAI 中文

© 2025. All Rights Reserved