
Google nutzt den internationalen Tag der Menschen mit Behinderungen, um das Feature-Set von Android ordentlich zu erweitern. Der Fokus liegt dabei auf Zugänglichkeit und Inklusion. Insgesamt sieben Neuerungen sollen die Bedienung des Smartphones erleichtern, das reicht von der visuellen Darstellung über die Eingabe bis hin zur Audio-Verarbeitung.

Eine Anpassung betrifft die visuelle Ausgabe bei Apps, die von Haus aus keinen Darkmode unterstützen. Mit einer neuen Option in Android 16 ist das System in der Lage, ein dunkles Design auf nahezu jede Anwendung zu erzwingen. Dies verhindert den harten Kontrastwechsel, wenn Nutzer von einer abgedunkelten Systemoberfläche in eine App mit grell weißem Hintergrund wechseln.
Im Audio-Bereich führt Google die „Expressive Captions“ ein. Hierbei kommt natürlich KI zum Einsatz, um Untertitel informativer zu gestalten. Statt den Text starr wiederzugeben, analysiert das System die Intonation. Emotionen werden durch Tags wie [Freude] oder [Traurigkeit] markiert, während die Lautstärke oder Betonung durch Großschreibung visualisiert wird. Auch Umgebungsgeräusche oder Seufzer finden Einzug in die Textdarstellung. Diese Funktion wird zu Beginn erst einmal bei englischsprachigen Inhalten auf YouTube implementiert.
Für Nutzer, die Android-Geräte mit einer externen Maus bedienen sollten, wurde die AutoClick-Funktionalität überarbeitet. Um die physische Belastung durch ständiges Klicken zu reduzieren, lässt sich nun eine Verweildauer für den Cursor festlegen, nach deren Ablauf eine Aktion automatisch ausgelöst wird. Ein neues Auswahl-Panel ermöglicht dabei die Definition der gewünschten Aktion:
- Linksklick
- Rechtsklick
- Doppelklick
- Drag-and-Drop
- Scrollen
Parallel dazu erhält „Voice Access“ ein Update für die freihändige Nutzung. Die Funktion lässt sich neuerdings direkt über den Sprachbefehl aktivieren. Neben einer verbesserten Erkennung von Akzenten und Satzzeichen können jetzt auch Systemfunktionen wie WLAN oder Bluetooth per Sprachbefehl gesteuert werden.

Die KI-Modelle von Google greifen stärker in die Assistenzsysteme ein. In der Pixel-Kamera-App wird die „Guided Frame“-Funktion erweitert. Wo bisher lediglich Gesichter erkannt wurden, liefert die Software ab sofort detaillierte Szenenbeschreibungen. Die Audio-Ausgabe beschreibt beispielsweise Kleidung, Objekte im Hintergrund oder Interaktionen zwischen Subjekten im Bildausschnitt.
Auch die TalkBack-Funktion profitiert von der KI-Anbindung. Über eine neue Geste – ein Doppeltipp mit zwei Fingern – lässt sich in Gboard die Diktierfunktion starten. Gemini ermöglicht hierbei das kontextbezogene Editieren. Befehle wie „Ersetze Montag durch Dienstag“ oder Aufforderungen zum Kürzen des Textes werden in natürlicher Sprache verarbeitet und umgesetzt.

Abschließend vereinfacht Google die Kopplung von Hörgeräten. Modelle, die Bluetooth LE Audio unterstützen, können via „Fast Pair“ mit einem einzigen Tippen verbunden werden. Den Anfang machen Geräte des Herstellers Demant; kompatible Modelle von Starkey sollen Anfang 2026 folgen.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

1 month ago
3


