
Das KI-Startup Runway hat mit seinem neuen Video-Modell Gen-4 einen weiteren Schritt in Richtung konsistenter KI-Videoerstellung gemacht. Während KI-generierte Videos oft am Zusammenhang der Bilder und Szenen scheitern, soll Gen-4 genau hier ansetzen und den Nutzern deutlich mehr „Kontinuität und Kontrolle“ bieten.
Using visual references, combined with instructions, Gen-4 allows you to create new images and videos with consistent styles, subjects, locations and more. Allowing for continuity and control within your stories.
To test the model’s narrative capabilities, we have put together… pic.twitter.com/IYz2BaeW2U
— Runway (@runwayml) March 31, 2025
Aktuell wird Gen-4 an zahlende und Unternehmenskunden ausgerollt. Mit nur einem Referenzbild können Charaktere und Objekte über mehrere Aufnahmen hinweg generiert werden. Nutzer beschreiben anschließend die gewünschte Komposition und das Modell liefert aus verschiedenen Blickwinkeln konsistente Ergebnisse.
In einem veröffentlichten Video behält eine Frau in unterschiedlichen Szenen und Lichtverhältnissen ihr Erscheinungsbild stets bei. Runway steht nach wie vor – wie viele andere Modelle – in der Kritik, weil man sich beim Training wohl auch bei etlichen YouTube-Erstellern und anderen Quellen bedient hat.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

9 months ago
10


