Google Gemini Modelle können jetzt Videos nativ analysieren

9 months ago 10

Skip to content

Farbverlauf Farbschema Farbschema

KI in der Praxis

16. März 202516. März 2025

Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.

Googles Gemini-Modelle unterstützen jetzt natives Videoverstehen. Nutzer können nun YouTube-Video-Links im Google AI Studio direkt in ihre Anfragen einbinden. Das Modell kann den Videoinhalt analysieren und Auskünfte dazu geben. Die KI transkribiert den Audiotrack und analysiert Videoframes im Sekundentakt. Entwickler können etwa spezifische Zeitstempel im Video referenzieren und das Modell um Zusammenfassungen, Übersetzungen oder visuelle Beschreibungen bitten. Die Funktion befindet sich derzeit in der Vorschau und ist kostenlos: Pro Tag sind maximal 8 Stunden Video erlaubt, nur ein Video pro Anfrage und ausschließlich öffentliche Videos. Gemini Pro kann Videos bis zu 2 Stunden Länge verarbeiten, Gemini Flash bis zu einer Stunde. Zuvor rollte Google native Bildgenerierung mit Gemini aus.

Video: via Logan Kilpatrick

Anzeige

Community beitreten

Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:

Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.

Community beitreten

Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Read Entire Article