ooligo
prompt

Interview-Fragenbank — kompetenz-getaggtes Prompt-Pack

Difficulty
Anfänger
Setup time
15min
For
recruiter · hiring-manager · interviewer
Recruiting & TA

Stack

Ein Paket strukturierter Prompts für Claude, das aus einer Rollenrubrik einen gestuften Fragensatz für Interviews erstellt: verhaltensbasiert (untersucht vergangenes Verhalten unter benannten Bedingungen), situativ (Reaktion auf eine hypothetische Situation), technisches Deep-Dive (bohrt in eine behauptete Kompetenz) und Gegenfragen (was von Kandidaten zu erwarten ist, wobei die Antworten zeigen, was sie signalisieren). Jede Frage ist mit der Rubrik-Dimension, die sie untersucht, dem Anker, zwischen dem sie differenziert, und der Follow-up-Frage getaggt, die zu stellen ist, wenn die Antwort zu einstudiert wirkt. Ersetzt das „Wir improvisieren einfach”-Interview durch eine Fragebibliothek, die das Panel tatsächlich vor dem Call öffnet.

Wann verwenden

  • Die Rolle verfügt über eine schriftliche Rubrik (strukturiertes Interviewing als Voraussetzung).
  • Das Interview-Panel enthält Interviewer, die nicht regelmäßig Interviews führen — Engineers, Hiring Manager, IC-Leads — und die mit vorbereiteten, rubrik-kalibrierten Fragen einsteigen müssen.
  • Sie wollen Konsistenz über Panelisten hinweg. Jeder Panelist stellt Varianten derselben Anker-Fragen, sodass der Debrief Notizen zu denselben Dimensionen vergleicht.
  • Sie kalibrieren einen Junior-Interviewer. Die „Follow-up bei einstudierter Antwort”-Annotationen des Packs machen das tiefere Signal sichtbar.

Wann NICHT verwenden

  • Unstrukturierte Cultural-Add-Interviews, bei denen das Ziel Rapport ist, kein Signal. Ein anderes Gespräch. Das Pack ist für Signal-Erfassungsrunden.
  • Live-Coding-Interviews. Ein anderes Artefakt (Code-and-Talk-Format). Der Take-Home-Evaluator-Workflow übernimmt die Artefakt-Bewertung; Live-Coding hat seinen eigenen Workflow.
  • Rubriken, die keinen Fairness-Check bestanden haben — die Prompts des Packs produzieren Fragen, die die Rubrik-Dimensionen untersuchen, einschließlich der schlechten. Die Rubrik zuerst durch das Diversity Slate Auditor-Framing oder den Boolean Search Builder Fairness-Preflight laufen lassen.
  • Fragen, die Sie für das Jahr einfrieren wollen. Das Pack generiert pro Rolle und Rubrik neu. Wenn Ihr Unternehmen eingefrorene, geprüfte Fragen für die Rechtskonformität benötigt (manche Branchen tun das), das Pack als Ausgangspunkt verwenden und den Output einfrieren — nicht die Prompts selbst.

Setup

  1. Bundle ablegen. apps/web/public/artifacts/interview-question-bank-prompt-pack/interview-question-bank-prompt-pack.md an einem Ort platzieren, an dem Ihre Interviewer es lesen können (Notion, das Team-Wiki, die Knowledge-Dateien eines internen Claude-Projekts).
  2. Rollenrubrik erstellen. Dieselbe Rubrik, die die Screen- und Reference-Workflows verwenden. Ohne sie haben die Prompts nichts zu untersuchen.
  3. Claude-Projekt pro Rolle erstellen. Die Rubrik als Projekt-Knowledge hinzufügen. Jeden Prompt des Packs als gespeicherten Prompt im Projekt speichern.
  4. Fragen generieren. Jeden Prompt gegen die Rubrik ausführen. Die Fragen in das Interview-Prep-Dokument des Panels kopieren. Jede Frage mit dem Panelisten taggen, der sie stellen wird.
  5. Auf Ton und Passgenauigkeit prüfen. Die Prompts produzieren kompetente Fragen. Der Hiring Manager bearbeitet sie für die Unternehmenssprache und die Rollenspezifika.

Was das Pack enthält

Zwölf Prompts, in drei Tiers.

Tier 1 — Behavioral (vergangenes Verhalten unter benannten Bedingungen untersuchen)

Behavioral-Fragen sind die Arbeitspferde des strukturierten Interviewings. Das Pack generiert Fragen im STAR-Format (Situation, Task, Action, Result) pro Rubrik-Dimension, mit je einem Follow-up, das über die einstudierte Antwort hinaus bohrt.

  • B1. 3 Behavioral-Fragen pro Rubrik-Dimension produzieren. Jede mit der Dimension und dem Rubrik-Anker (1–5) getaggt, zwischen dem sie differenziert.
  • B2. Für jede Behavioral-Frage einen Drill-Down produzieren, für den Fall, dass die Antwort zu einstudiert wirkt (der Panelist erkennt, dass der Kandidat genau diese Geschichte vorbereitet hat). Der Drill-Down bittet um ein anderes Beispiel, ein Kontrafaktum oder einen Schritt, den der Kandidat übersprungen hat.
  • B3. 3 Behavioral-Fragen produzieren, die das Negative untersuchen — Situationen, in denen der Kandidat an der Dimension gescheitert ist. Reduziert präventiv die „Mein Fehler ist, dass ich ein Perfektionist bin”-Non-Answers.

Tier 2 — Situational (Reaktion auf eine hypothetische Situation)

Situative Fragen untersuchen, wie der Kandidat mit einem Szenario umgehen würde. Weniger zuverlässig als Behavioral, aber nützlich für Senior-Scope-Fragen, bei denen der Kandidat möglicherweise keine direkt vergleichbare Vergangenheitssituation hat.

  • S1. 2 situative Szenarien pro Rubrik-Dimension auf dem Level der Rolle produzieren. Jedes Szenario auf das Level kalibriert (Senior-IC-Scope-Probleme, nicht Staff-Scope; Manager-Scope-Probleme, nicht Director-Scope).
  • S2. Für jedes Szenario die Antwort-Dimensionen auflisten, auf die der Panelist achten sollte (spezifische Entscheidungskriterien, was er vor der Entscheidung fragt, was er vermeidet).

Tier 3 — Technical / Craft Deep-Dive

Für Rollen mit einer Handwerkskunst (Engineering, Design, Sales-Methodik) produziert dieser Tier Fragen, die in die behauptete Kompetenz des Kandidaten bohren.

  • T1. Für die must_have-Skills der Rubrik 5 Deep-Dive-Fragen pro Skill produzieren. Jede als „shallow” (prüft ob der Kandidat den Skill überhaupt hat) oder „deep” (untersucht die Grenzen des Skills) gekennzeichnet.
  • T2. Für jede Deep-Dive-Frage 3 Follow-ups auflisten, die der Panelist stellt, wenn die erste Antwort des Kandidaten korrekt, aber oberflächlich ist.
  • T3. 2 Fragen produzieren, die eine Lücke im Skill aufdecken statt Vorhandensein zu bestätigen. („Erzählen Sie mir von einer Situation, in der Sie X verwenden mussten, aber Y nicht hatten.” Untersucht, ob der Kandidat die Grenze erkennt.)

Tier 4 — Gegenfragen (was der Kandidat zurückfragt)

Starke Kandidaten stellen inhaltliche Fragen. Schwache Kandidaten fragen „Wie ist die Kultur so?”. Dieser Tier hilft dem Panelisten, die Fragen des Kandidaten zu lesen.

  • R1. Eine Liste von 10 substanziellen Fragen produzieren, die ein starker Kandidat stellen könnte, gruppiert nach dem, was jede Frage signalisiert (der Kandidat denkt über X nach, bevorzugt Y, sucht nach Z).
  • R2. Eine Liste von 10 schwachen/generischen Fragen produzieren und was jede signalisiert (Kandidat hat nicht recherchiert, ist bei Grundlagen unsicher, fischt nach einer bestimmten Antwort).

Kostenrealität

Pro Fragengenerierung einer Rolle auf Claude Sonnet 4.6:

  • LLM-Tokens — typischerweise 5–10k Input (Rubrik + Prompt + Skill-Anweisungen) und 3–6k Output (die generierte Fragebibliothek) pro Prompt-Aufruf. Gesamt pro Rolle: ca. 0,30–0,60 USD beim Ausführen aller 12 Prompts.
  • Interviewer-Zeit — der eigentliche Gewinn. Das manuelle Erstellen einer Behavioral-Fragebibliothek pro Rolle dauert 4–8 Stunden; das Pack liefert eine Starter-Bibliothek in 30 Minuten aus Prompt-und-Bearbeitungszeit.
  • Setup-Zeit — 15 Minuten für die Einrichtung des Claude-Projekts pro Rolle. Das firmenweite Setup des Packs (Prompts speichern, mit Team-Wiki integrieren) ist eine einmalige 30–60-minütige Aufgabe.

Erfolgsmetrik

Drei Dinge monatlich verfolgen:

  • Panelisten-übergreifende Fragenüberschneidung — Anteil der Fragen, die von mindestens zwei Panelisten im selben Loop gestellt werden. Sollte bei ≥ 40 % auf einem kalibrierten Pack liegen (die Rubrik-Dimensionen SIND der rote Faden); unter 25 % improvisieren die Panelisten.
  • Debrief-Zeit — Wanduhr von „letztes Interview endet” bis „Entscheidung erfasst”. Sollte um ca. 30 % sinken, weil Debriefs auf denselben Dimensionen verankert sind.
  • Panelisten-Vertrauen in ihre Notizen — qualitativ; die Panelisten fragen: „Sind Sie mit einer Fragebibliothek eingestiegen?” Die ehrliche Antwort in den meisten Unternehmen ist „Nein, wir haben improvisiert” — die Erfolgsmetrik des Packs ist, das auf „Ja, und es hat geholfen” zu verschieben.

vs. Alternativen

  • vs. manuell erstellter Fragebibliothek. Manuelles Erstellen ist der richtige Ansatz für ein kleines, schnell iterierendes Team, bei dem Rubrik und Fragen gemeinsam in den Köpfen der Gründer entstehen. Das Pack verdient seinen Setup-Aufwand bei Teams, die über mehrere Panelisten pro Loop hinweg einstellen.
  • vs. ATS-native Fragendatenbanken (Greenhouse Interview Plans, Ashby Interview Templates). ATS-nativ ist der richtige Ansatz, wenn das Team im ATS lebt und Fragen im Kontext angezeigt haben will. Das Pack wählen, wenn die Fragebibliothek versionskontrolliert im eigenen Repository liegen und bei Rubrik-Weiterentwicklung neu generiert werden soll.
  • vs. generischem Claude-Prompt ohne Skill. Generic Chat liefert generische Fragen. Das Pack ist strukturell anders: Jede Frage ist mit einer Rubrik-Dimension, einem Anker und einem Follow-up getaggt.
  • vs. keinerlei Vorbereitung. Vorhersehbares Scheitern: Panelisten stellen unterschiedliche Fragen, der Debrief vergleicht Äpfel mit Orangen, die Entscheidung driftet zu demjenigen, der zuerst gesprochen hat.

Watch-outs

  • Bias-Übernahme aus der Rubrik. Guard: Das Pack generiert Fragen AUS der Rubrik. Hat die Rubrik biasierte Dimensionen (Cultural Fit ohne Anker, Prestige-Ranking nach Hochschule), untersuchen die Fragen den Bias. Die Rubrik vorgelagert prüfen — siehe Diversity Slate Auditor.
  • Fragenrehearsing. Guard: Der B2-Prompt des Packs produziert explizit Drill-Downs für einstudierte Antworten. Der Drill-Down bittet um ein anderes Beispiel oder ein Kontrafaktum; er lässt den Kandidaten das vorbereitete Skript nicht erneut ablaufen.
  • Generische Fragen, die durchkommen. Guard: Jede generierte Frage muss die Rubrik-Dimension und den Anker referenzieren, zwischen dem sie differenziert. Fragen ohne Anker-Referenz werden im Prompt-Output für den Panelisten zur Streichung oder Überarbeitung markiert.
  • Inkonsistente Frageschwierfigkeit über Panelisten hinweg. Guard: Die Prompts sind mit dem Rubrik-Anker (1–5) getaggt, auf den sie kalibriert sind. Zwei Panelisten, die unterschiedliche Fragen zur selben Dimension stellen, sind dennoch auf dieselben Anker kalibriert.
  • Längenexplosion. Guard: Die Prompts des Packs begrenzen den Output auf „3 pro Dimension, maximal 12 Dimensionen” — eine typische Rollenbiobliothek landet bei ca. 50–80 Fragen, nicht bei 500. Der Hiring Manager wählt 8–15 für den tatsächlichen Einsatz pro Panel-Slot aus.
  • Veraltete Fragen auf alten Rubriken. Guard: Das Pack bei Rubrik-Änderungen neu ausführen (das Pack ist schnell — 30 Minuten sind günstig). Alte, in Interview-Prep-Docs verlinkte Fragebibliotheken werden sonst still veraltet.

Stack

Das Artefakt-Bundle liegt unter apps/web/public/artifacts/interview-question-bank-prompt-pack/ und enthält:

  • interview-question-bank-prompt-pack.md — die zwölf Prompts, bereit zum Einfügen in Claude

Werkzeuge, die der Workflow voraussetzt: Claude (das Modell). Der Output fließt in Notion, das Team-Wiki oder ein ATS-Interview-Plan-Template.

Verwandte Konzepte: strukturiertes Interviewing, verhaltensbasiertes Interviewing, Interview-Loop-Design, Quality of Hire.

Files in this artifact

Download all (.zip)