Einleitung
Was gerade passiert ist
Claude Code hatte in den letzten Wochen einen Knick. Du hast es gemerkt, ich habe es gemerkt, halb LinkedIn hat es gemerkt. Du fragst, es antwortet daneben. Du korrigierst, es antwortet wieder daneben.
Anthropic hat den Performance-Drop am 23. April selbst eingeräumt. Sie arbeiten daran. Aber während wir warten, gibt es einen besseren Weg, als Cloud-Code wegzuwerfen oder weiter dagegen zu boxen.
Der Weg heißt: Multi-Brain-Setup. Drei Modelle, ein Terminal, jeder macht das, wofür er gebaut ist.
Das Bild dahinter
Stell dir vor, du leitest eine Werkstatt. Du hast einen Bauarbeiter, der schnell baut. Einen zweiten Mann, der nach jedem Schritt prüft, ob die Statik stimmt. Und einen dritten, der Pläne liest – große, dicke Pläne, die niemand sonst durchhält.
Wenn alle drei zusammenarbeiten, läuft die Baustelle. Wenn du nur einen hast, baut er irgendwann gegen die Wand. Genau das passiert gerade mit Claude Code im Solo-Betrieb.
Die drei Modelle und was jeder kann
Claude Code – der Bauarbeiter. Schreibt den Code, macht den eigentlichen Bau. Bleibt das IDE-Harness, das vorne steht und mit dir spricht.
GPT 5.5 (über Codex CLI) – der Reviewer. Liest Claudes Output gegen, findet die Logikfehler, die Claude bei sich selbst nicht sieht. Adversarial Review heißt: Devil's Advocate auf Knopfdruck. Du bekommst eine Liste mit High-/Medium-/Low-Findings, statt dass du selbst alle Bugs einsammelst.
Gemini 2.5 Pro – die Augen. Native Video-Analyse bis 2 Stunden. PDFs mit 200+ Seiten in einer Request. 1 Million Token Context. Audio bis 10 Stunden. Claude allein bricht da längst ab. Gemini liest das in einem Schnitt durch.
Warum drei Brains besser sind als ein guter Brain
Jedes Modell hat blinde Flecken. Wenn du dasselbe Problem aus drei verschiedenen Perspektiven beleuchtest, schließen sich die meisten dieser Flecken.
Claude ist gut im Bauen – aber nicht gut im Selbst-Kritisieren. Wenn er sich verrennt, merkt er es nicht von allein. GPT 5.5 sieht das von außen.
GPT ist gut im Strukturieren und Reviewen – aber nicht so gut darin, eine ganze Codebase oder ein 8-Stunden-Audio-File zu schlucken. Gemini schluckt es ohne Pause.
Gemini hat das größte Kontextfenster – aber nicht das beste Code-Sprachgefühl im Detail. Claude und GPT haben das.
Drei Werkzeuge. Drei Stärken. Ein Werkzeugkasten.
Setup in fünf Schritten
Schritt 1: Codex CLI installieren
Im Terminal
npm install -g @openai/codex
Danach prüfen
codex --version
Wenn eine Versionsnummer kommt, hat es geklappt.
Schritt 2: Gemini CLI installieren
npm install -g @google/gemini-cli
Danach prüfen
gemini --version
Schritt 3: Bei beiden einloggen
Für Codex: codex login – öffnet eine Login-Seite, wo du dich mit deinem ChatGPT-Account verbindest. Es nutzt deine bestehende ChatGPT-Plus- oder Pro-Subscription. Kein extra Token-Pricing, keine API-Keys.
Für Gemini: gemini – beim ersten Aufruf wirst du durch den Login geführt. Du verbindest dein Google-Konto, fertig. Komplett kostenlos im Free-Tier.
Schritt 4: Claude-Code-Plugins
Damit Claude Code die anderen beiden tatsächlich aus deinem Workflow heraus aufrufen kann, brauchst du zwei Plugins. Es gibt zwei GitHub-Repos:
Das Codex-Plugin für Claude Code – damit kann Claude die Codex CLI als Sub-Tool aufrufen, etwa für „review this code" oder „adversarial check".
Das Gemini-Plugin für Claude Code – damit kann Claude Gemini für lange Kontexte, Videos oder PDFs anstoßen.
Die Repos installierst du über den Plugin-Marketplace in Claude Code. Detailliertes How-To gibt's bei den jeweiligen Repos – ich verlinke meine getestete Version unten.
Schritt 5: Routing-Skill anlegen
Der eigentliche Hebel: ein Skill in deinem .claude/skills-Ordner, der entscheidet, welches Modell wann eingesprungen wird. Die Routing-Logik, die bei mir läuft:
- Wenn Claude bei einer Aufgabe zweimal scheitert (Failure-Detection): handover an Codex zur Rescue-Review. Hard-Stop, kein „noch eine Runde mit Claude".
- Wenn die Aufgabe Video, Audio, PDF mit 50+ Seiten oder lange Codebase-Suche enthält (Risk-Path-Detection): direkt an Gemini, weil Claudes Kontextfenster schon vorher reißt.
- Wenn Code geschrieben wurde, der ins Repo soll: Codex automatisch drüberlaufen lassen, bevor Claude den Commit macht. Adversarial Review als Default-Layer.
- Bei strategischen Fragen („Welche Architektur? Welcher Stack? Welches Geschäftsmodell?"): Parallel-Consensus. Alle drei Modelle bekommen dieselbe Frage, antworten unabhängig, Claude synthetisiert die drei Antworten in eine.
Der Skill ist eine Markdown-Datei mit ein paar If-Then-Regeln. Einmal geschrieben, läuft er automatisch.
Was das pro Tag kostet
Claude Code: dein bestehender Plan, je nach Tier 20 oder 200 Dollar pro Monat.
ChatGPT Plus: 20 Dollar pro Monat. Inkludiert sind 50 GPT-5.5-Messages alle 3 Stunden. Codex zieht aus genau diesem Budget – kein Extra-Pricing pro Token. Wer den 200-Dollar-Pro-Tier hat, bekommt effektiv unlimited GPT-5.5 für Code-Reviews.
Gemini: kostenlos. 1500 Flash-Requests pro Tag (für schnelle Text- und Image-Aufgaben). 50 Pro-Requests pro Tag – und jede einzelne dieser Pro-Requests kann ein 2-Stunden-Video oder ein 200-Seiten-PDF sein. Für 95 Prozent der Anwender reicht das ohne Upgrade.
Du zahlst also entweder gar nichts mehr extra (wenn du eh schon ChatGPT Plus hast) oder 20 Euro mehr im Monat. Dafür bekommst du Zugriff auf zwei zusätzliche Frontier-Modelle, von denen Gemini in seinem Bereich (lange Kontexte, Multimodal) konkurrenzlos ist.
Konkrete Use-Cases aus meiner Woche
Use-Case 1: Code-Review nach jedem Feature.
Früher: Claude baut, ich sehe drüber, finde 60 Prozent der Bugs, der Rest taucht in Production auf. Jetzt: Claude baut, ich sage „Codex, review das mit Adversarial Mode". Codex liefert eine strukturierte Liste – Sicherheitslücken, fehlende Validierungen, hardcodierte Secrets. Findet konstant Sachen, die Claude übersehen hat. Bug-Quote in Production halbiert.
Use-Case 2: Vertrags-Review für einen Kunden.
Ein 180-Seiten-Dienstleistungs-Vertrag, juristisches Deutsch. Claude allein hätte am Kontextfenster geknickt. Stattdessen: Gemini schluckt das ganze PDF in einer Pro-Request. Liefert eine strukturierte Zusammenfassung, hebt kritische Klauseln hervor, vergleicht mit Standard-Klauseln. 15 Minuten statt einem halben Tag.
Use-Case 3: Reverse-Engineering eines viralen Reels.
Ein Mitbewerber bricht auf TikTok mit einer Serie durch. Ich gebe Gemini ein 90-Sekunden-Video. Gemini liefert: kompletter Transkript, Sekunde-für-Sekunde-Visual-Overlay (welcher Schnitt, welcher Cut, welche Kamerabewegung), erkennbare Pacing-Patterns. Wir nehmen die Mechanik, gießen sie in unsere eigene Marke, posten in der nächsten Woche.
Use-Case 4: Multi-Modell-Debate für strategische Entscheidungen.
Frage: „Welche Plattform sollte mein Kunde 2026 priorisieren – LinkedIn, TikTok, YouTube?" Ich starte eine Parallel-Consensus-Session: alle drei Modelle bekommen dieselbe Frage in derselben Form. Claude argumentiert für tiefe Audience-Bindung, GPT für skalierbares Discovery, Gemini bringt Datenpunkte aus aktuellen Studien rein. Ich bekomme drei verschiedene Lenses statt einer monolithischen Empfehlung.
Die Wahrheit über Claude Codes aktuellen Stand
Ich hab keine Allianz mit irgendeinem Modell. Cloud Code war im Februar magisch, Anfang April spürbar schlechter, jetzt sind sie dabei zu fixen. Während sie fixen, ist Solo-Claude nicht der beste Workflow.
Aber: Codex allein ist auch nicht die Antwort. GPT 5.5 ist großartig im Reviewen, aber Claude ist nach wie vor besser im Schreiben mit Stil und Nuance. Gemini hat den größten Context, aber im Code-Detail braucht es die anderen beiden.
Die Antwort ist nicht eines der drei. Die Antwort ist die Kombination.
Mein Rat
Wenn du regelmäßig mit Claude Code arbeitest, blocke einen Nachmittag. Installier Codex und Gemini CLI. Mach den Plugin-Setup. Schreib dir einen kleinen Routing-Skill (Claude hilft dir dabei, ironischerweise).
Danach hast du ein Werkzeug, das jedem Solo-Claude-Setup haushoch überlegen ist. Ohne extra Cost in den meisten Fällen.
Und ehrlich gefragt: Wenn du heute eine Operation bräuchtest, würdest du den einen Allgemein-Arzt nehmen – oder das Team aus Chirurg, Anästhesist und Bildgebung?
Genau diese Frage stellt sich gerade in deinem Terminal.