Claude Code Mastery

Claude Code Multi-Agent: Parallele KI-Workflows 2026

Wie Sub-Agents, Orchestratoren und Hintergrund-Tasks zusammenspielen — und warum parallele KI-Koordination komplexe Entwicklungsprojekte grundlegend verändert.

📅 6. Mai 2026 ⏱ 10 min Lesezeit 📋 Claude Code Mastery
Claude Code Multi-Agent Sub-Agents Orchestrierung Parallele KI Agentic Workflows

Stell dir vor, du gibst Claude Code eine komplexe Aufgabe — sagen wir: „Analysiere unsere gesamte Codebasis, schreibe fehlende Unit-Tests, refaktoriere die Performance-Bottlenecks und erstelle dabei eine vollständige Dokumentation." Sequenziell würde das Stunden dauern, den Kontext sprengen und Fehler produzieren, weil der Agent frühere Teilergebnisse vergisst.

Mit Multi-Agent-Workflows löst Claude Code genau dieses Problem: Mehrere spezialisierte Sub-Agents arbeiten gleichzeitig an verschiedenen Teilaufgaben, koordinieren sich über Nachrichten, und ein Orchestrator-Agent fasst die Ergebnisse zusammen. Das Ergebnis: kürzere Laufzeiten, bessere Qualität — und Workflows, die vorher schlicht unmöglich waren.

✓ Was du in diesem Artikel lernst

Das Konzept hinter Multi-Agent-Architekturen in Claude Code, wie du parallele Sub-Agents startest, Hintergrund-Agents einsetzt, Agents koordinierst, und welche Patterns sich in der Praxis bewährt haben — inklusive konkreter Prompt-Beispiele.

1. Multi-Agent Konzept: Warum mehrere KI-Agents?

Claude Code ist von Anthropic explizit für agentic Use Cases konzipiert — also Szenarien, in denen die KI eigenständig mehrstufige Aufgaben ausführt, Tools benutzt und Entscheidungen trifft. Multi-Agent-Workflows gehen einen Schritt weiter: Statt einem einzigen allmächtigen Agent teilt man die Arbeit auf spezialisierte Einheiten auf.

Sequenziell vs. Parallel — der entscheidende Unterschied

Sequenzielle Verarbeitung bedeutet: Agent A macht Aufgabe 1, dann Aufgabe 2, dann Aufgabe 3. Bei langen Aufgabenketten bläht der Kontext sich auf — der Agent „vergisst" frühe Details, macht Fehler, und die Gesamtlaufzeit addiert sich linear.

Parallele Verarbeitung bedeutet: Agent A, B und C starten gleichzeitig mit Aufgaben 1, 2 und 3. Die Laufzeit bestimmt das langsamste Sub-Task — nicht die Summe aller Tasks. Und jeder Agent hält nur seinen eigenen, kompakten Kontext.

Kriterium Sequenziell Multi-Agent (Parallel)
Laufzeit bei 4 Tasks à 5 min ~20 min ~5-6 min
Kontext-Größe Wächst linear Jeder Agent: klein + fokussiert
Spezialisierung Ein Agent, alles Jeder Agent = Experte
Fehlertoleranz Ein Fehler blockiert alles Einzelne Agents können neu gestartet werden
Skalierbarkeit Begrenzt durch Kontext-Window Horizontal skalierbar

Die drei Agent-Typen in Claude Code

Orchestrator Der Planer

Der Orchestrator-Agent kennt das große Bild. Er teilt komplexe Aufgaben in Sub-Tasks auf, startet spezialisierte Agents, sammelt deren Ergebnisse und integriert sie. Er schreibt selten selbst Code — er koordiniert. In Claude Code ist das oft der „Manager"-Subagent-Typ.

Parallel Worker Die Spezialisten

Parallele Worker-Agents führen konkrete Teilaufgaben aus: einer schreibt Code, einer recherchiert, einer führt Tests aus. Sie laufen gleichzeitig und berichten ihre Ergebnisse an den Orchestrator. Dank fokussiertem Kontext sind sie präziser als ein Generalist.

Hintergrund-Agent Der Async-Worker

Hintergrund-Agents starten mit run_in_background=True und arbeiten asynchron. Der Hauptagent wird nicht blockiert und kann direkt weiterarbeiten. Ideal für lange Analysen, Deployments oder Tests, die im Hintergrund laufen sollen.

Diese drei Muster lassen sich kombinieren: Ein Orchestrator startet mehrere parallele Worker, von denen einige im Hintergrund laufen — während er selbst bereits die nächste Phase plant.

2. Parallele Sub-Agents: Gleichzeitig arbeiten lassen

Claude Code erlaubt es, über das Agent()-Tool mehrere Sub-Agents gleichzeitig zu starten. Der Trick: Du startest alle Agents in einem einzigen Tool-Call-Block — dann laufen sie parallel.

Wie Parallelisierung in der Praxis aussieht

Beispiel-Prompt an den Orchestrator
Analysiere unser Repository `src/` und teile die Arbeit wie folgt auf: - Agent 1 (Researcher): Analysiere alle API-Endpunkte und erstelle eine vollständige Liste der fehlenden Input-Validierungen - Agent 2 (Coder): Prüfe alle Datenbankabfragen auf SQL-Injection-Risiken und schreibe fixe Versionen - Agent 3 (Tester): Identifiziere alle Funktionen ohne Unit-Tests und erstelle eine Prioritätsliste Starte alle drei Agents gleichzeitig. Berichte, sobald alle fertig sind.

Claude Code startet dann drei separate Agent-Instanzen, die unabhängig voneinander im gleichen Repository arbeiten. Jeder Agent hat seinen eigenen Kontext, seine eigenen Tool-Calls, und gibt am Ende ein strukturiertes Ergebnis zurück.

# Intern verwendet Claude Code das Agent()-Tool so: # (vereinfacht dargestellt — die Orchestrierung passiert automatisch) # Alle drei in einem Block = parallele Ausführung Agent(subagent_type="researcher", name="api-validator", prompt="Analysiere src/ auf fehlende API-Validierungen...", run_in_background=False) Agent(subagent_type="coder", name="sql-fixer", prompt="Prüfe alle DB-Queries auf SQL-Injection...", run_in_background=False) Agent(subagent_type="researcher", name="test-gap-finder", prompt="Finde alle Funktionen ohne Unit-Tests...", run_in_background=False)

Unabhängige Teilaufgaben identifizieren

Der Schlüssel zur effektiven Parallelisierung: Die Teilaufgaben müssen unabhängig voneinander sein — also kein Sub-Agent darf auf das Ergebnis eines anderen warten müssen. Gute Kandidaten für Parallelisierung:

Synchronisation der Ergebnisse

Wenn alle parallelen Agents fertig sind, gibt jeder sein Ergebnis strukturiert zurück. Der Orchestrator wartet auf alle Ergebnisse (sofern nicht im Hintergrundmodus) und fasst sie zusammen. Für die Synchronisation bieten sich strukturierte JSON-Outputs an:

Strukturierter Output-Prompt für Worker-Agents
Analysiere src/api/ auf fehlende Input-Validierungen. Antworte AUSSCHLIESSLICH in folgendem JSON-Format: { "agent": "api-validator", "status": "success" | "partial" | "failed", "findings_count": , "critical": [{"file": "...", "function": "...", "issue": "..."}], "medium": [...], "low": [...] } Keine Prosa, kein Markdown — nur das JSON-Objekt.

3. Hintergrund-Agents: Async ohne Blockierung

Mit run_in_background=True startet Claude Code einen Agent, ohne auf dessen Abschluss zu warten. Der Hauptagent — oder der User — kann sofort weiterarbeiten. Das ist besonders wertvoll für lang laufende Prozesse wie Deployments, umfangreiche Test-Suiten oder zeitintensive Analysen großer Datensätze.

Typische Anwendungsfälle

Background Deployment-Agent

Du startest den Deployment-Agent im Hintergrund, während du bereits die Changelog-Notizen schreibst oder das nächste Feature planst. Der Deployment-Agent meldet sich, wenn er fertig ist — oder wenn ein Fehler auftritt.

Background Test-Suite-Runner

Eine vollständige E2E-Testsuite mit Playwright kann 10-15 Minuten dauern. Mit run_in_background=True läuft sie durch, während du parallele Feature-Entwicklung betreibst. Du bekommst eine Notification wenn Tests fehlschlagen.

Background Daten-Analyse-Agent

Große Log-Dateien (mehrere GB) analysieren, Embeddings berechnen, oder komplexe Datenbankmigrationen vorbereiten — all das passiert im Hintergrund, ohne den Entwicklungs-Flow zu unterbrechen.

Hintergrund-Agent starten — Beispiel-Prompt

Prompt an Claude Code
Starte einen Hintergrund-Agent der folgendes macht: 1. Führe `npm run test:e2e` aus und warte auf das Ergebnis 2. Analysiere fehlgeschlagene Tests und extrahiere die Fehler-Messages 3. Schreibe die Zusammenfassung in /tmp/test-results.json Starte den Agent im Hintergrund (run_in_background=True) damit ich weiterarbeiten kann. Benachrichtige mich wenn er fertig ist oder wenn kritische Fehler auftreten.
💡 Wichtig: Hintergrund-Agents brauchen klare Abbruch-Kriterien

Definiere immer, was „fertig" bedeutet und wann ein Agent eskalieren soll. Ohne klare Abbruch-Bedingungen können Hintergrund-Agents in Endlosschleifen geraten oder auf Ressourcen warten, die nie verfügbar werden.

Notification-Pattern: Wie Agents zurückmelden

Hintergrund-Agents haben zwei Möglichkeiten zur Rückmeldung: Sie schreiben ihr Ergebnis in eine definierte Datei (z.B. /tmp/agent-result.json), die der Hauptagent periodisch prüft — oder sie nutzen SendMessage, um den Orchestrator direkt zu benachrichtigen, wenn sie fertig sind.

# Pattern: Hintergrund-Agent schreibt strukturiertes Ergebnis # (wird vom Orchestrator nach Abschluss eingelesen) # Am Ende des Hintergrund-Agent-Prompts: "Schreibe am Ende deiner Arbeit folgende JSON-Datei: /tmp/bg-agent-{agent_name}-result.json mit den Feldern: status, duration_seconds, summary, errors[] Dann sende SendMessage an den Orchestrator: 'DONE: {agent_name}'"

4. Agent-Koordination: Orchestrator und Spezialisten

Die eigentliche Stärke von Multi-Agent-Systemen liegt in der Koordination. Ein Orchestrator-Agent kennt das Gesamtziel, teilt es in Sub-Tasks auf, delegiert an Spezialisten und integriert die Ergebnisse. Spezialisten-Agents sind in ihrer Domäne tief spezialisiert — und genau deshalb präziser als ein Generalist.

Das Orchestrator-Pattern

1

Aufgabe verstehen und dekomponieren

Der Orchestrator analysiert die Gesamtaufgabe und zerlegt sie in unabhängige, delegierbare Sub-Tasks mit klaren Inputs und erwarteten Outputs.

2

Richtige Agents für Sub-Tasks wählen

Jeder Sub-Task bekommt den passenden Spezialisten: Researcher für Analyse, Coder für Implementierung, Reviewer für Qualitätssicherung, Runner für Ausführung.

3

Parallele oder sequenzielle Ausführung entscheiden

Unabhängige Tasks starten parallel. Tasks mit Abhängigkeiten (B braucht Ergebnis von A) starten sequenziell. Gute Orchestratoren minimieren sequenzielle Ketten.

4

Ergebnisse sammeln und validieren

Der Orchestrator prüft alle Sub-Task-Ergebnisse auf Vollständigkeit und Qualität. Bei Mängeln startet er einen weiteren Agent-Durchlauf (Retry-Loop).

5

Integration und Ausgabe

Alle validierten Teilresultate werden zu einem kohärenten Gesamtergebnis zusammengefasst und dem User oder dem übergeordneten System übergeben.

SendMessage: Direkte Agent-zu-Agent-Kommunikation

Claude Code erlaubt es Agents, sich gegenseitig Nachrichten zu senden — entweder direkt (Point-to-Point) oder als Broadcast an alle aktiven Agents. Das ermöglicht dynamische Koordination ohne zentralen Engpass.

Beispiel: Orchestrator delegiert an Spezialisten
Du bist der Orchestrator für ein Code-Refactoring-Projekt. Aktuell läuft Agent "code-analyzer" und analysiert src/. Wenn du seine Ergebnisse erhältst: - Prüfe welche Dateien HIGH-PRIORITY Refactoring brauchen - Delegiere die Top-3 Dateien an drei parallele "refactor-worker" Agents - Jeder Worker bekommt genau eine Datei - Warte auf alle drei, dann übergib die Ergebnisse an den "pr-creator" Agent SendMessage-Format für Delegation: {"type": "task", "to": "refactor-worker-1", "file": "src/api/auth.ts", "goal": "..."}

Broadcast vs. Point-to-Point

5. Praktische Patterns: Was wirklich funktioniert

Theorie ist gut — aber welche Patterns haben sich in echten Claude Code Multi-Agent-Projekten bewährt? Hier sind die fünf wichtigsten Muster mit konkreten Prompt-Vorlagen.

Pattern 1: Researcher + Coder + Reviewer (RCR-Triad)

Das beliebteste Pattern für Feature-Entwicklung. Drei spezialisierte Agents arbeiten sequenziell, aber innerhalb ihrer Phase maximal parallel.

Researcher Phase 1: Kontext sammeln

Analysiert die bestehende Codebase, Dokumentation und externe Quellen (Web, Bibliotheken). Output: strukturierte Analyse mit Empfehlungen für die Implementierung.

Coder Phase 2: Implementierung

Erhält den Research-Output als Input und implementiert das Feature. Schreibt gleichzeitig Unit-Tests. Nutzt den Researcher-Output als Kontext — kein Rediscovery nötig.

Reviewer Phase 3: Qualitätssicherung

Reviewed den Code des Coders nach Security, Performance und Stil. Gibt strukturiertes Feedback. Falls kritische Issues gefunden: Coder startet einen neuen Pass.

RCR-Triad: Orchestrator-Prompt
Implementiere das Feature "JWT-Refresh-Token-Rotation" für unser Express.js Backend. PHASE 1 — Researcher Agent: - Analysiere src/auth/ vollständig - Prüfe welche JWT-Library wir nutzen (Paket, Version, API) - Recherchiere Best Practices für Refresh-Token-Rotation 2026 - Output: research-jwt-rotation.md PHASE 2 — Coder Agent (startet nach Phase 1): - Lese research-jwt-rotation.md als Input - Implementiere Rotation in src/auth/tokens.ts - Schreibe Unit-Tests in tests/auth/token-rotation.test.ts - Commit nach jeder fertigen Funktion PHASE 3 — Reviewer Agent (startet nach Phase 2): - Code-Review auf Security (OWASP), Performance, Stil - Output: review-report.md mit PASS/FAIL + Issues - Falls FAIL: liste exakte Zeilen und Fixes

Pattern 2: Parallele Test-Branches

Wenn ein Feature auf mehreren Branches oder gegen verschiedene Node.js-Versionen getestet werden soll, startet Claude Code mehrere Test-Runner-Agents gleichzeitig.

# Prompt-Struktur für parallele Branch-Tests "Führe die Test-Suite gleichzeitig auf drei Konfigurationen aus: Agent 1: Node 20 LTS — `nvm use 20 && npm test` Agent 2: Node 22 LTS — `nvm use 22 && npm test` Agent 3: Node 23 Current — `nvm use 23 && npm test` Alle drei parallel starten (run_in_background=True für 2 und 3). Schreibe Ergebnisse nach /tmp/test-{node-version}.json. Melde sobald alle drei abgeschlossen sind."

Pattern 3: Code-Review Swarm

Bei großen Pull Requests mit hunderten geänderten Dateien ist ein einzelner Review-Agent überlastet. Der Swarm-Ansatz teilt den PR in Chunks auf:

Code-Review Swarm Prompt
Review Pull Request #247 (312 geänderte Dateien). Teile die Files in 4 Gruppen und starte parallele Review-Agents: - Agent A: src/api/** (Security-Fokus: Injection, Auth, CORS) - Agent B: src/components/** (Frontend: XSS, Props-Validation, A11y) - Agent C: src/database/** (SQL, Migrations, Index-Nutzung) - Agent D: tests/** (Coverage-Lücken, falsche Assertions, Flakiness) Jeder Agent schreibt sein Ergebnis als JSON nach /tmp/review-{group}.json. Aggregiere alle vier Reports zu einem finalen PR-Comment-Entwurf.

Pattern 4: Kontext-Splitting für große Codebases

Große Repositories übersteigen das Kontext-Fenster eines einzelnen Agents. Multi-Agent löst dieses Problem elegant: Jeder Agent bekommt nur seinen eigenen Bereich als Kontext.

💡 Faustregel: Kontext-Splitting

Wenn eine Aufgabe mehr als 50 Dateien betrifft oder mehr als 30.000 Tokens Kontext bräuchte — sofort auf Multi-Agent splitten. Faustregel: pro Agent maximal 20-25 relevante Dateien.

Pattern 5: Inkrementelle Parallelisierung

Nicht jedes Projekt lässt sich von Anfang an vollständig parallelisieren. Das Inkrementelle Muster startet mit einem Analyse-Agent, der automatisch bestimmt, welche Aufgaben parallelisierbar sind — und startet dann die passenden Agents dynamisch:

Inkrementell-paralleler Orchestrator
Analysiere das GitHub-Issue #189 "Performance-Degradierung im Auth-Flow". Schritt 1: Recherche-Agent findet Root Cause Schritt 2: Du (Orchestrator) entscheidest ob Fix: a) In einer Datei lösbar → 1 Coder-Agent b) In 2-5 Dateien lösbar → parallele Coder-Agents (eine Datei pro Agent) c) Systemisches Problem → Plan für weiteren Analyse-Pass Danach immer: Reviewer-Agent + Test-Runner-Agent parallel. Commit nach jedem abgeschlossenen Fix.

6. Best Practices: Multi-Agent richtig einsetzen

Multi-Agent-Workflows sind mächtig — aber auch komplex. Diese Best Practices helfen dir, häufige Fehler zu vermeiden und das Beste aus parallelen KI-Systemen herauszuholen.

Wann ist Multi-Agent sinnvoll?

Nutze Multi-Agent wenn... Nutze Single-Agent wenn...
Aufgabe hat >3 unabhängige Teilschritte Task ist kleiner, zusammenhängender Schritt
Verschiedene Expertisen nötig (Research + Code + QA) Starke Interdependenz zwischen Teilschritten
Codebase zu groß für einen Kontext Kontext passt gut in ein Fenster
Parallelisierung spart >30% Zeit Overhead überwiegt den Parallelisierungs-Gewinn
Lang laufende Tasks (Deployments, Tests) Aufgabe dauert unter 2-3 Minuten

Kontext-Management in Multi-Agent-Systemen

Jeder Agent hat sein eigenes Kontext-Fenster. Der Orchestrator sollte Sub-Task-Ergebnisse kompakt halten — nicht den gesamten Agent-Output im eigenen Kontext speichern, sondern nur eine strukturierte Zusammenfassung. Detaillierte Ergebnisse schreiben Agents in temporäre Dateien (/tmp/ oder .work/).

# Kontext-sparendes Pattern für Orchestratoren: # ❌ FALSCH: Vollständigen Output im Orchestrator-Kontext halten "Gib mir den vollständigen analysierten Code zurück..." # ✅ RICHTIG: Nur Metadaten, Details in Datei "Schreibe vollständige Analyse nach /tmp/analysis-{module}.json Berichte mir nur: status, findings_count, critical_issues[] (max 5 kritische Issues als 1-Satz-Summary)"

Idempotenz: Agents sicher wiederholbar machen

Multi-Agent-Workflows scheitern manchmal. Ein Agent crasht, das Netzwerk unterbrach sich, ein Tool gab einen Fehler zurück. Damit Restarts sicher möglich sind, müssen Agents idempotent sein — das heißt: zweimaliges Ausführen führt zum gleichen Ergebnis wie einmaliges.

Fehlerbehandlung im Orchestrator

⚠ Anti-Pattern: Fehlende Error-Propagation

Ein häufiger Fehler: Der Orchestrator ignoriert fehlgeschlagene Sub-Agents und integriert nur die erfolgreichen Ergebnisse — ohne den User zu informieren. Das führt zu stillen Fehlern, die erst viel später auffallen.

Definiere in jedem Orchestrator-Prompt explizit das Fehler-Verhalten:

Fehlerbehandlungs-Vorlage im Orchestrator-Prompt
Wenn ein Sub-Agent scheitert (status: "failed"): 1. Logge den Fehler mit Agent-Name, Timestamp, Error-Message nach /tmp/agent-errors.log 2. Versuche EINMAL einen Neustart mit vereinfachtem Prompt 3. Falls zweiter Versuch auch fehlschlägt: markiere diesen Sub-Task als BLOCKED 4. Integriere nur erfolgreiche Ergebnisse 5. Am Ende: berichte EXPLIZIT welche Sub-Tasks erfolgreich waren und welche geblockt sind 6. Empfehle nächste Schritte für geblockte Tasks

Token-Effizienz: Kosten im Griff behalten

Mehr Agents bedeutet mehr Token-Verbrauch. Diese Techniken helfen, die Kosten zu optimieren:

Debugging Multi-Agent-Workflows

Wenn ein Multi-Agent-Workflow unerwartet verhält, hilft dieser Diagnose-Ansatz:

1

Agent-Logs zentralisieren

Jeder Agent schreibt in /tmp/agent-log-{name}-{timestamp}.json. Ein separater Log-Aggregator-Agent liest alle Logs und erstellt eine Timeline.

2

Sequenziell reproduzieren

Wenn ein paralleler Workflow Fehler produziert, führe die Schritte sequenziell aus. Oft liegt das Problem in Race Conditions oder nicht-atomaren Schreiboperationen.

3

Kleinsten scheiternden Sub-Task isolieren

Starte nur den fehlschlagenden Agent alleine. Prüfe seinen Prompt, Input und Tool-Zugriffe. Dann schrittweise weitere Agents hinzufügen.


Zusammenfassung: Der Multi-Agent Stack 2026

Claude Code Multi-Agent-Workflows sind kein Feature für Edge Cases — sie sind die natürliche Weiterentwicklung des Agentic Programming. Komplexe Entwicklungsaufgaben, die früher Tage dauerten, lösen gut orchestrierte Agent-Systeme in Stunden. Die Schlüsselprinzipien:

Multi-Agent Workflows selbst erleben

Starte deinen kostenlosen SpockyMagicAI Trial und deploye deinen ersten Multi-Agent-Workflow noch heute — ohne Kreditkarte, ohne Setup-Overhead.

Kostenlos starten →