Razer stellt neue KI-Produkte vor: Ava soll euch nicht nur beim Gaming begleiten

1 day ago 3

Razer ist für seine Gaming-Peripherie sowie die Notebooks der Blade-Reihe bekannt. Doch auch im Bereich künstliche Intelligenz will man mitmischen. Mit Ava hat man da schon eine Art KI-Begleiter fürs Gaming präsentiert. Man entwickelt nicht nur dieses Projekt weiter, sondern hat auch noch andere Lösungen vorgestellt.

Razers Ava soll dabei agentische Funktionen erhalten. Schon auf der CES 2026 zeigte Razer uns da ein animiertes 3D-Hologramm, das Teil von Ava werden soll. Es wird auf eurem Schreibtisch platziert und kann euch nicht nur bei Spielen aushelfen, sondern auch bei anderen Apps und Diensten für euch Aufgaben übernehmen. Das erweiterte, agentische System für Ava, das Razer im Rahmen der GDC 2026 präsentiert, soll Nutzerintentionen in strukturierte, mehrstufige Workflows übersetzen. Ava soll so zu einem KI-Assistenten für den gesamten Desktop-Alltag werden – nicht nur für Gamer, sondern auch für professionelle Anwender.

Ava leitet in der neuen Iteration etwa Anfragen zwischen lokalen und Cloud-Modellen weiter. Das soll laut Razer für geringere Latenz, nahtlose Multi-Step-Prozesse und effizientere Ausführung bei zunehmender Aufgabenkomplexität sorgen. Ebenfalls kann der KI-Begleiter mit unterstützten Services, Chat-Plattformen und Apps wie Spotify interagieren. Auf Wunsch plant Ava mehrstufige Aufgaben für euch und führt diese auch autonom aus. Dazu gibt es gar agentische Kommunikation zwischen mehreren Ava-Companions, sodass diese Ende-zu-Ende-Aufgaben über mehrere Nutzer hinweg koordinieren können, wie etwa Terminvorschläge, Kalenderbuchungen oder Terminbestätigungen.

Wer Interesse hat, kann sich bereits für die Ava-Beta über Rater Cortex anmelden. Early-Access-Einladungen werden ab dem 2. Quartal 2026 an ausgewählte Nutzer versendet.

Razer QA Companion-AI wird schlauer

Zusätzlich wertet Razer seine QA Companion-AI auf, die sich aber wiederum an Entwickler richtet, da sie das Qualitätsmanagement unterstützt. Die neuen Funktionen beschleunigen laut Razer QA-Prozesse, indem sie die Automatisierung erhöhen, die Vollständigkeit von Reports verbessern und Testfälle aus Prompts oder Game-Design-Dokumenten (GDDs) generieren. Schon jetzt kann die QA Companion-AI Gameplay-Material analysieren, visuelle Fehler erkennen und automatisch Bug-Reports samt Video vorhalten – inklusive reproduzierbarer Schritte für jeden Eintrag.

Razer hat zudem noch Neuerungen für seine sogenannte „Adaptive Immersive Experience“ vorgestellt. Dahinter verbirgt sich ein multisensorisches Runtime-System, das eine Plug-and-Play-Effektbibliothek mit in Echtzeit generierten Haptik- und Beleuchtungseffekten kombiniert. Das soll es Entwicklern z. B. auch erleichtern. Razer Sensa für haptische Erlebnisse einzubinden. Aufbauend auf Razers multisensorischem Stack aus Razer Sensa HD Haptics, Razer Chroma RGB und THX Spatial Audio+ verstärkt das System das Spielerlebnis.

Das Gesamtsystem bietet:

  • In Echtzeit generierte Effekte: Adaptive Haptik und Beleuchtung werden automatisch vom Runtime-System erzeugt.
  • Plug-and-Play-Effektbibliothek: Eine produktionsreife Sammlung an Haptik- und Chroma-Effekten, kompatibel mit Unity und Unreal Engine.
  • Native Wwise-Integration: Direkte Unterstützung für Sensa HD Haptics und THX Spatial Audio+ innerhalb etablierter Wwise-Audioworkflows.

Die Adaptive Immersive Experience wird ab dem 1. Quartal 2026 schrittweise ausgerollt.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Read Entire Article