AI & LLM

Die Interview-Methode: Wie AskUserQuestionTool meinen Claude Code Workflow verändert hat

6 Min. Lesezeit
#Claude Code#Workflow#Spec-Driven Development#AskUserQuestionTool

TL;DR

  • Meine liebste Art, große Features mit Claude Code zu bauen: spec-basierte Entwicklung
  • Starte mit einer minimalen Spec, dann lass dich von Claude mit dem AskUserQuestionTool interviewen
  • Bei großen Features stellt Claude 40+ Fragen—am Ende hast du eine detaillierte Spec, die du wirklich besitzt
  • Führe die Spec in einer neuen Session mit frischem Kontext aus

Das Problem

Traditionelles Prompting ist rückwärts gedacht. Du schreibst einen Prompt, Claude rät deine Absicht, du korrigierst Missverständnisse, wiederhole. Du machst die schwere Arbeit herauszufinden, welchen Kontext Claude braucht.

Es geht besser.

Die Lösung: Lass dich von Claude interviewen

Dreh den Spieß um. Statt dass du Claude promptest, lass Claude dich interviewen.

Das AskUserQuestionTool ist ein eingebautes Claude Code Feature, das strukturierte Multiple-Choice-Fragen präsentiert. Claude fragt, du klickst. Schnell. Fokussiert. Keine Essays tippen.

So nutze ich es.

Der Workflow

Schritt 1: Starte mit einer minimalen Spec

Erstelle eine SPEC.md Datei mit deiner groben Idee. Sie darf chaotisch sein. Fünf Stichpunkte. Ein Absatz. Was auch immer du hast.

# Feature: User Dashboard

- Nutzungsmetriken anzeigen
- Export nach CSV
- Nach Datumsbereich filtern
- Vielleicht Charts?

Das war’s. Nicht überdenken.

Schritt 2: Starte das Interview-Prompt

Öffne Claude Code und nutze diesen Prompt:

read this @SPEC.md and interview me in detail using the
AskUserQuestionTool about literally anything: technical
implementation, UI & UX, concerns, tradeoffs, etc. but
make sure the questions are not obvious

be very in-depth and continue interviewing me continually
until it's complete, then write the spec to the file

Die Schlüsselteile:

  • “interview me in detail” — Claude geht in die Tiefe
  • “using the AskUserQuestionTool” — strukturiertes Q&A, kein Freitext-Chat
  • “not obvious” — überspringe die Basisfragen, grabe ins Schwierige
  • “continually until complete” — stoppe nicht nach 5 Fragen

Schritt 3: Beantworte 20-40+ Fragen

Claude beginnt zu fragen. Viel. Bei einem großen Feature erwarte 40+ Fragen zu:

  • Technische Implementierungsdetails
  • UI/UX-Entscheidungen
  • Edge Cases, an die du nicht gedacht hattest
  • Tradeoffs und Prioritäten
  • Integrationsfragen
  • Error Handling
  • Performance-Überlegungen

Jede Frage kommt mit Multiple-Choice-Optionen. Klicke die passende. Füge Kontext hinzu wenn nötig.

Schritt 4: Erhalte deine detaillierte Spec

Wenn Claude zufrieden ist, schreibt es die finale Spec in deine Datei. Du hast jetzt ein umfassendes Dokument, das jede Entscheidung festhält.

Schritt 5: Ausführen in einer frischen Session

Starte eine neue Claude Code Session. Der alte Interview-Kontext ist weg—das ist Absicht. Deine Spec ist jetzt die einzige Wahrheitsquelle.

implement @SPEC.md

Sauberer Kontext. Klare Anweisungen. Keine angesammelte Verwirrung.

Echte Beispielfragen

So sieht das AskUserQuestionTool in der Praxis aus. Das sind die Art von Fragen, die Claude mir bei einem kürzlichen Dashboard-Feature gestellt hat:

Technische Implementierung

Wie sollen die Metrikdaten abgerufen werden?

  • Echtzeit WebSocket-Updates
  • Polling alle 30 Sekunden
  • On-Demand wenn User aktualisiert
  • Andere

UX-Entscheidung

Was soll passieren, wenn der Export länger als 5 Sekunden dauert?

  • Fortschrittsbalken mit Prozentanzeige
  • Spinner mit “Generiere…” Text
  • Hintergrund-Export mit Benachrichtigung wenn fertig
  • Andere

Architektur-Tradeoff

Wo soll die Datumsfilter-Logik leben?

  • Client-seitig (schnellere UX, mehr Datentransfer)
  • Server-seitig (weniger Daten, langsamere Antwort)
  • Hybrid (Server filtert, Client verfeinert)
  • Andere

Edge Case

Wie soll das Dashboard User ohne Daten behandeln?

  • Leerer Zustand mit Onboarding-Hinweis
  • Beispieldaten-Vorschau
  • Weiterleitung zum Setup-Wizard
  • Andere

Prioritätsfrage

Für das MVP, priorisiere:

  • Feature-Vollständigkeit (alle Metriken, alle Exporte)
  • Polish (weniger Features, bessere UX)
  • Geschwindigkeit zum Ship (Minimum Viable, schnell iterieren)
  • Andere

Das sind keine Ja/Nein-Fragen. Sie erzwingen Entscheidungen.

Warum das funktioniert

Du durchdenkst Edge Cases. Die Fragen bringen Szenarien an die Oberfläche, die du sonst mitten in der Implementierung entdecken würdest. Oder schlimmer, in Produktion.

Entscheidungen werden dokumentiert. Jede Wahl wird festgehalten. Sechs Monate später weißt du, warum du WebSocket statt Polling gewählt hast.

Du fühlst Ownership. Du hast jede Entscheidung getroffen. Die Spec ist nicht Claudes Vermutung—es ist deine Produktvision, extrahiert und organisiert.

Saubere Kontexttrennung. Die Interview-Session akkumuliert Kontext. Die Ausführungs-Session startet frisch mit nur der Spec. Keine Verwirrung zwischen Exploration und Implementierung.

Es ist schneller als du denkst. Durch 40 Multiple-Choice-Fragen klicken dauert 10-15 Minuten. Eine so detaillierte Spec von Grund auf schreiben? Stunden.

Die Daten dahinter

Das ist nicht nur meine Meinung. Die Forschung bestätigt es.

MIT fand: Prompts zählen genauso viel wie Modelle. Eine Studie des MIT Sloan zeigte, dass 50% der KI-Leistungsverbesserung durch bessere Prompts kam—nicht durch Upgrade auf bessere Modelle. Wie du kommunizierst, macht den Unterschied.

Strukturierte Ansätze reduzieren Sicherheitslücken. Forschung, die “Vibe Coding” (Ad-hoc-Prompting) mit Spec-Driven Development verglich, fand 85% weniger Sicherheitslücken und 300% bessere Wartbarkeit mit dem Spec-First-Ansatz.

Unstrukturierte Sessions verschwenden Tokens. Eine PDCA-Framework-Studie fand, dass unstrukturierte Coding-Sessions 80% ihrer Tokens nach der Fertigmeldung verbrauchten—nur für Troubleshooting und Behebung von Missverständnissen. Planung im Voraus eliminiert diese Verschwendung.

Kontext degradiert bei langen Sessions. LLM-Generierung wird unzuverlässiger, je länger Sessions dauern. Die Trennung von Planung und Ausführung in separate Sessions—wie dieser Workflow es tut—verhindert Context-Window-Degradierung.

Du bist nicht allein

Mo Bitar nennt das “The Interrogation Method.” Sein Ansatz: lass Claude eine Frage pro Antwort stellen, zeichne das Q&A in einer Transkript-Datei auf, fahre fort bis es komplett ist. Ein 45-minütiges Interview für ein Notification-System generierte ~1.000 Zeilen Transkript. Die Spec produzierte funktionierenden Code beim ersten Versuch.

Seine Zusammenfassung: “The whole game is specification. You live and die by it.”

Andere nennen Variationen dieser Technik “Reverse Prompting” oder “Socratic Prompting.” Die Kernerkenntnis ist dieselbe: lass die KI dich interviewen statt umgekehrt. Es bringt Anforderungen an die Oberfläche, die du sonst übersehen würdest.

Probier es selbst

Nächstes Mal wenn du etwas Nicht-Triviales baust:

  1. Erstelle eine minimale SPEC.md
  2. Starte das Interview-Prompt
  3. Beantworte alles was Claude fragt
  4. Führe die Spec in einer neuen Session aus

Du wirst nie wieder zu traditionellem Prompting für große Features zurückkehren.


Das AskUserQuestionTool ist in Claude Code verfügbar. Wenn du es noch nicht nutzt, lässt du den besten Teil des Workflows auf dem Tisch liegen.

Yannik Zuehlke
Autor

Yannik Zuehlke

Berater, Architekt & Entwickler

Software-Architekt und Cloud-Engineer mit 15+ Jahren Erfahrung. Ich schreibe über das, was in der Praxis funktioniert.