Anthropics neues Spitzenmodell Claude Opus 4.7 soll vor allem bei Programmieraufgaben einen großen Sprung machen. Beim Training hat das Unternehmen gezielt versucht, bestimmte Cybersicherheits-Fähigkeiten zu reduzieren.
Anthropic hat Claude Opus 4.7 veröffentlicht, ein direktes Upgrade zum Vorgänger Opus 4.6. Das Unternehmen positioniert das Modell vor allem als Fortschritt beim autonomen Programmieren. Auf dem Coding-Benchmark SWE-bench Pro kommt Opus 4.7 laut Anthropic auf 64,3 Prozent, gegenüber 53,4 Prozent beim Vorgänger und 57,7 Prozent bei OpenAIs GPT-5.4. Anthropics eigenes Spitzenmodell Claude Mythos Preview liegt mit 77,8 Prozent allerdings weiterhin deutlich darüber.
Laut Anthropic soll Opus 4.7 Anweisungen präziser befolgen als sein Vorgänger. Das Unternehmen weist darauf hin, dass Prompts, die für ältere Modelle geschrieben wurden, nun unerwartete Ergebnisse liefern können, weil Opus 4.7 Instruktionen wörtlicher nimmt als Opus 4.6, das sie teils lose interpretierte oder Teile überging.
Dreifache Bildauflösung
Opus 4.7 verarbeitet Bilder mit bis zu 2.576 Pixeln an der langen Kante, was laut Anthropic rund 3,75 Megapixeln entspricht und mehr als dreimal so viel ist wie bei früheren Claude-Modellen. Das ist keine API-Einstellung, sondern eine Änderung auf Modellebene: Bilder werden automatisch in höherer Auflösung verarbeitet, verbrauchen dafür aber auch mehr Tokens. Wer die zusätzliche Detailtiefe nicht braucht, kann Bilder vor dem Senden herunterskalieren.
Anthropic sieht darin einen Vorteil für Computer-Use-Agenten, die dichte Screenshots lesen müssen, und für die Datenextraktion aus komplexen Diagrammen. Beim Document Reasoning (OfficeQA Pro) meldet das Unternehmen 80,6 Prozent Korrektheit gegenüber 57,1 Prozent bei Opus 4.6. Auch beim biomolekularen Reasoning und bei der visuellen Navigation (ScreenSpot-Pro) zeigen die Benchmarks deutliche Zuwächse.
Cyber-Fähigkeiten gezielt gedrosselt
Auffällig ist Anthropics Umgang mit den Cybersicherheits-Fähigkeiten des Modells. Das Unternehmen gibt an, beim Training experimentell versucht zu haben, bestimmte Cyber-Fähigkeiten differenziell zu reduzieren. Neue Schutzmaßnahmen sollen automatisch Anfragen erkennen und blockieren, die auf verbotene oder hochriskante Cybersicherheitsnutzung hindeuten.
Hintergrund ist das kürzlich angekündigte Project Glasswing, in dem Anthropic die Risiken und den Nutzen von KI-Modellen für Cybersicherheit thematisiert hatte. Das Unternehmen hatte dabei erklärt, die Veröffentlichung des leistungsfähigeren Mythos Preview einzuschränken und neue Schutzmaßnahmen zunächst an weniger fähigen Modellen zu erproben. Opus 4.7 ist der erste Testfall für diese Strategie.
Sicherheitsforscher, die das Modell für Penetrationstests oder Red-Teaming einsetzen wollen, können sich für ein neues Cyber Verification Program anmelden.
Weniger Halluzinationen, aber nicht die wenigsten
Laut der System Card unterscheidet Anthropic zwischen zwei Typen von Halluzinationen: faktische Halluzinationen, also falsche Angaben über die Welt wie erfundene Zitate oder falsche Daten, und Input-Halluzinationen, bei denen das Modell so tut, als hätte es Zugang zu einem Tool oder Anhang, der gar nicht vorhanden ist.
Bei faktischen Halluzinationen schneidet Opus 4.7 auf vier Benchmarks besser oder gleichwertig ab wie Opus 4.6, liegt aber unter Mythos Preview. Der Abstand zu Mythos Preview ergibt sich laut Anthropic vor allem aus dessen höherer Trefferquote bei obskuren Fakten, nicht aus einer höheren Fehlerquote bei Opus 4.7.
Bei Input-Halluzinationen erreicht Opus 4.7 laut der System Card die niedrigste Halluzinationsrate aller getesteten Modelle, wenn Nutzer ein Tool anfordern, das nicht verfügbar ist. Bei fehlenden Kontextinformationen liegt es nahe an Mythos Preview und deutlich vor älteren Modellen. Allerdings räumt Anthropic ein, dass die Testfälle für das Tool-Set auf Schwächen von Opus 4.6 zugeschnitten waren, was dessen Ergebnis verzerrt.
Beim Umgang mit falschen Prämissen, also Fragen, die auf erfundenen Fakten basieren, liegt Opus 4.7 auf dem Niveau von Opus 4.6 und unter Mythos Preview. Unter Druck, etwa wenn Nutzer oder System-Prompts das Modell zum Widerspruch gegen seine eigene Einschätzung drängen, zeigt sich Opus 4.7 ehrlicher als Opus 4.6, aber weniger standfest als Mythos Preview.
Gemischtes Bild beim Alignment
Insgesamt beschreibt Anthropic das Sicherheitsprofil von Opus 4.7 als ähnlich zu Opus 4.6, mit niedrigen Raten bei Täuschung, Sycophancy und Kooperation bei Missbrauch. Bei Prompt-Injection-Angriffen sei Opus 4.7 widerstandsfähiger.
Ein bekanntes Problem früherer Claude-Modelle bleibt teilweise bestehen: Die Weigerung, bei legitimer KI-Sicherheitsforschung zu helfen. Opus 4.7 verweigert laut der System Card noch in 33 Prozent der Fälle die Unterstützung bei simulierten Safety-Research-Aufgaben, ein Rückgang gegenüber 88 Prozent bei Opus 4.6, aber immer noch ein beträchtlicher Anteil.
Gleiche Stückpreise, potenziell deutlich höhere Kosten
Die Preise bleiben bei 5 Dollar pro Million Input-Tokens und 25 Dollar pro Million Output-Tokens. Allerdings nutzt Opus 4.7 einen neuen Tokenizer, der denselben Text auf bis zu 1,35-mal so viele Tokens abbilden kann. Zudem erzeugt das Modell bei höheren Effort-Levels mehr Output-Tokens. De facto können die Kosten pro Anfrage also deutlich steigen, auch wenn die Stückpreise gleich bleiben.
Neu ist die Effort-Stufe "xhigh" zwischen "high" und "max". In Claude Code gibt es zudem den Befehl "/ultrareview" für dedizierte Code-Reviews sowie den erweiterten "Auto Mode" für Max-Nutzer, bei dem Claude eigenständig Entscheidungen trifft. Opus 4.7 ist über die Claude API, Amazon Bedrock, Google Cloud Vertex AI und Microsoft Foundry verfügbar.
Mehr Informationen und Tipps gibt es im Migration-Guide zu Opus 4.7.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den "KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.





