
Raycast bringt mit dem aktuellen Update ein wirklich nützliches Feature für KI-Fans. Dank der Integration von Ollama lassen sich jetzt über 100 Open-Source-Modelle direkt lokal auf dem eigenen Rechner nutzen, von kleinen Modellen bis zu riesigen Modellen. Die Einrichtung ist einfach erklärt und auch genauso einfach umgesetzt. Ollama installieren, gewünschte Modelle direkt in den Raycast-Einstellungen > AI auswählen (Raycast Pro ist notwendig dafür) und loslegen.
Neu ist auch experimenteller Support für AI-Extensions mit lokalen Modellen. Noch läuft das Ganze nicht ganz so stabil wie mit Cloud-KIs, da Ollama aktuell keine Tool-Auswahl und kein Streaming für Tool-Aufrufe unterstützt. Wer Lust auf Experimente hat, kann die Funktion aber in den AI-Einstellungen aktivieren.
Außerdem gibt’s Verbesserungen bei Fehlerberichten, MCP-Server-Kompatibilität und ein paar Bugfixes rund um das Onboarding, den Export und die Verwaltung von MCP-Servern.
Das Update könnt ihr direkt über das „Check For Updates“-Kommando herunterladen.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

7 months ago
8


