
Generative KI kann Texte schreiben, Bilder erzeugen und Videos produzieren – der nächste Schritt sind ganze begehbare Umgebungen. Google arbeitet mit seinem experimentellen Prototypen „Project Genie“ an genau diesem Konzept und zeigt, wohin sich generative Modelle langfristig entwickeln könnten. Das System erlaubt es, eigene Welten und Charaktere auf Basis von Texteingaben zu entwerfen und diese anschließend in Echtzeit zu erkunden.
Wer jetzt direkt ausprobieren möchte, muss allerdings Geduld mitbringen. Project Genie steckt noch in einer frühen Entwicklungsphase und ist aktuell nur für Google-AI-Ultra-Abonnenten ab 18 Jahren mit Wohnsitz in den USA zugänglich. Ein breiterer Rollout ist laut Google geplant, ein konkretes Datum gibt es aber noch nicht – daran hat sich weiterhin nichts geändert. Google erläutert aber aktuell dennoch gerne einmal, wie das Ganze überhaupt funktioniert:
Das Grundprinzip funktioniert über Text-Prompts oder eine Kombination aus Text und Bild. Statt fertige Assets zusammenzusetzen, generiert das System die Welt direkt aus der Beschreibung heraus. Das Basis-Setting – etwa eine Stadt oder eine außerirdische Landschaft – lässt sich mit Details wie Wetterbedingungen oder bestimmten Objekten ausstatten. Auch der grafische Stil liegt beim Nutzer: Die Engine unterstützt alles von fotorealistischen Renderings über Cartoon-Optik bis hin zum klassischen Videospiel-Look.
Für die Navigation durch die generierte Welt wird ein Avatar benötigt, dessen Aussehen frei wählbar ist. Interessant ist dabei, dass sich über Prompts nicht nur die Optik des Charakters festlegen lässt, sondern auch das Bewegungsverhalten – ob die Figur fliegt, rollt oder hüpft – sowie visuelle Effekte wie eine Staubwolke bei der Fortbewegung.
Wer nicht komplett bei null starten möchte, kann eigene Bilder als Ausgangsmaterial hochladen. Google empfiehlt dabei, das Hauptmotiv mittig zu platzieren und genug Hintergrund sichtbar zu lassen, damit die KI die Umgebung sinnvoll weiterbauen kann. Über zusätzliche Texteingaben lässt sich die Atmosphäre des hochgeladenen Bildes dann weiter anpassen.
Für die Formulierung der Prompts selbst empfiehlt Google kurze, direkte und aktionsorientierte Sätze. Wer dabei Unterstützung benötigt, kann den hauseigenen KI-Assistenten Gemini direkt zum Umschreiben und Optimieren der Eingaben nutzen.
Technisch läuft vor der eigentlichen Generierung ein Zwischenschritt ab: Project Genie nutzt das Modell „Nano Banana Pro“, um zunächst eine Vorschau der Umgebung und des Charakters auszuspielen. Das gibt die Möglichkeit, Parameter in Echtzeit anzupassen, bevor das System die finale, navigierbare Welt berechnet. Nach Abschluss des Renderings stehen zwei Perspektiven zur Auswahl – First-Person direkt aus der Sicht des Charakters oder Third-Person mit Blick von außen auf die Figur. Zwischen beiden lässt sich per Knopfdruck jederzeit wechseln.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

1 day ago
2


