Google will seine KI-Coding-Modelle verbessern und selbst mehr KI nutzen. Langfristig soll KI sich selbst verbessern können.
Laut The Information hat Google Deepmind ein spezielles Team aus Forschern und Ingenieuren zusammengestellt, um die Programmierfähigkeiten seiner Gemini-Modelle zu stärken. Geleitet wird es vom Deepmind-Ingenieur Sebastian Borgeaud, der zuvor das Vortraining der Deepmind-Modelle verantwortete. Das Team arbeitet an komplexen, langfristigen Programmieraufgaben wie dem Schreiben neuer Software. Dabei müssen die Modelle Dateien lesen und die Absicht des Nutzers verstehen.
Auslöser war unter anderem, dass Google-Forscher die Coding-Werkzeuge von Anthropic als überlegen einstufen. Coding ist in diesem Jahr ein Schwerpunkt aller führenden KI-Labore. OpenAI und Google versuchen, zu Anthropic aufzuschließen. OpenAI hat kürzlich sogar seinen Videogenerator Sora eingestellt, um mehr Rechenleistung für das Training und die Bereitstellung anderer KI-Modelle freizumachen.
Google-Mitgründer Brin mischt weiter mit
Google-Mitgründer Sergey Brin und Deepmind-CTO Koray Kavukcuoglu sind direkt beteiligt. Brin schrieb in einem internen Memo, Google müsse "dringend die Lücke bei der Ausführung von KI-Agenten schließen". Jeder Gemini-Ingenieur müsse interne Agenten für komplexe, mehrstufige Aufgaben nutzen.
Gegenüber Mitarbeitern betonte Brin, dass bessere Coding-Fähigkeiten ein Schritt in Richtung KI seien, die sich selbst verbessern kann. Ein fortschrittlicher Coding-Agent könnte zusammen mit KI für mathematische Probleme und Experimente eines Tages die Arbeit von KI-Forschern und Ingenieuren weitgehend automatisieren.
Intern verfolgt Google die Nutzung seines Coding-Tools "Jetski" per Rangliste, ähnlich wie angeblich bei Meta. Dort ist der Tokenverbrauch die erfasste Metrik. Einige Teams außerhalb von Deepmind halten zudem verpflichtende KI-Schulungen für Ingenieure ab.
Google setzt laut den Quellen von The Information verstärkt auf Modelle, die mit internem Code trainiert werden, statt nur auf Coding-Modelle für externe Kunden. Googles interne Codebasis unterscheidet sich stark von dem externen Code, der üblicherweise zum Training allgemeiner Coding-Agenten dient. Solche intern trainierten Modelle lassen sich daher nicht öffentlich veröffentlichen. Sie könnten aber helfen, bessere Modelle zu entwickeln, die dann öffentlich erscheinen.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den "KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.



