ooligo
claude-skill

Personalisiertes Absagefeedback mit Claude

Difficulty
Fortgeschritten
Setup time
30min
For
recruiter · talent-acquisition · recruiting-ops
Recruiting & TA

Stack

Ein Claude Skill, der die Interview-Scorecards eines abgelehnten Kandidaten (und, wenn verfügbar, BrightHire- oder Metaview-Transkripte) verarbeitet, eine evidenzbasierte Absage-E-Mail oder Gesprächsleitfaden-Notizen für den Recruiter-Anruf entwirft und die recruiter-seitigen Notizen für den Anruf produziert. Ersetzt die Formular-Absage, die die Candidate Experience beschädigt, durch personalisiertes Feedback, das der Kandidat tatsächlich verwenden kann — und verweigert die Ausführung, wenn das Rubrik fehlt, der Loop nicht konvergiert hat oder der Fall jurisdiktionsseitig markiert ist.

Wann verwenden

  • Der Kandidat hat mindestens ein Onsite oder eine Final-Stage-Runde erreicht, wo er gemäß den Kosten des Recruiting-Funnels genug Zeit investiert hat, um eine echte Antwort zu verdienen.
  • Das Team hat mindestens zwei abgezeichnete Scorecards für den Kandidaten (Ashby submitted: true, Greenhouse status: complete, Lever state: completed). Eine Scorecard ist die Perspektive eines Interviewers; der Skill verweigert die Synthese von Feedback aus einer einzigen Perspektive, da dies das Unternehmen dem Risiko selektiver Beweisführung aussetzt.
  • Eine Rollenrubrik existiert unter rubrics/<role_id>.yaml mit Verhaltensankern pro Dimension (dieselbe Quelle, die der Interview-Debrief-Skill liest). Der Skill bewertet anhand von Rubrik-Ankern, nicht anhand von Freitext-Scorecard-Prosa.
  • Der Kandidat hat ausdrücklich Feedback angefordert (schriftlich im ATS festgehalten), ODER die Aufenthalts-Jurisdiktion des Kandidaten ist eine, in der unaufgefordertes Feedback kein dokumentiertes Risiko gemäß der HR-Rechtsberatung des Benutzers trägt.
  • Ein Recruiter überprüft und bearbeitet jeden Entwurf vor dem Versand. Der Skill schreibt Entwürfe auf die Festplatte und stoppt; er definiert keine send-Aktion.

Wann NICHT verwenden

  • Automatisches Versenden ohne Recruiter-Überprüfung. KI-entworfenes und gesendetes Absagefeedback ist der zuverlässigste Weg, einen EEOC-, ADA- oder staatlichen Arbeitsrechtsfall zu produzieren. Der Recruiter ist das Gate. Wenn das Ziel darin besteht, den Menschen aus dem Loop zu entfernen, ist dies der falsche Workflow.
  • Kandidaten, die in Deny-Jurisdiktionen kein Feedback angefordert haben. Frankreich (Code du travail-Risiko bei dokumentierten Absagegründen), Deutschland (AGG § 22 Beweislastverschiebung) und jede Jurisdiktion, die die HR-Rechtsberatung des Benutzers mit unsolicited_feedback: deny in der Richtliniendatei markiert hat. Der Skill verweigert in diesen Fällen spezifische Angaben und schreibt stattdessen die generische Ablehnungsvorlage. Bearbeiten Sie die Richtliniendatei nicht, um einen Deny-Jurisdiktionsfall zu bestehen.
  • Fälle, die die Rechtsabteilung markiert hat. Aktiver Streit, unbearbeiteter Anfrage auf Anpassung oder eine laufende Beschwerde. Der Skill gibt einen generischen Ablehnungsentwurf zurück und meldet die Markierung dem Recruiter. Spezifika zu einem markierten Fall werden zu Beweismitteln im Streit.
  • Absagen in frühen Phasen (Lebenslaufprüfung, Recruiter-Screening). Standardmäßige Ablehnung ist das richtige Werkzeug; die Pro-Kandidaten-Modellkosten und die Recruiter-Überprüfungszeit zahlen sich nicht in der oberen Trichterstufe aus. Der Skill ist für Kandidaten, die mindestens ein Onsite erreicht haben.
  • Vergleichsranking (Sie waren unser zweiter Wahl, wir hatten stärkere Kandidaten). Der Skill verweigert die Ausführung — das Rubrik-zu-Feedback-Mapping enthält diese Sprache nicht, und die Blocklist grep sie heraus. Vergleichsranking ist das, was eine konstruktive Absage in einen Glassdoor-Beitrag verwandelt.
  • Prozessverbesserungsanfragen (Kandidaten um Feedback zum Interview, eine Empfehlung oder ein Testimonial bitten). Gegenanfragen in einer Absage-E-Mail sind ein EEOC-Zeugenerklärungsrisiko und ein Schaden für die Candidate Experience. Die Blocklist fängt sie ab.

Einrichtung

  1. Bundle ablegen. Platzieren Sie apps/web/public/artifacts/rejection-feedback-claude-skill/SKILL.md in Ihrem Claude Code Skills-Verzeichnis (oder claude.ai benutzerdefinierte Skills mit Tier-A-Autorisierung für Kandidatendaten gemäß KI-Richtlinie).
  2. Rubrikquelle konfigurieren. Der Skill liest Rollenrubriken aus rubrics/<role_id>.yaml — gleicher Pfad wie der Interview-Debrief-Skill. Wenn die Rubrik nicht existiert, verweigert der Skill die Ausführung. Strukturiertes Interviewing ist die Voraussetzung, nicht dieser Skill.
  3. Rubrik-zu-Feedback-Mapping ausfüllen. Kopieren Sie references/1-rubric-to-feedback-mapping.md und ersetzen Sie die Vorlagenformulierungen durch die genehmigten kandidatenseitigen Formulierungen Ihres Teams pro Rubrikdimension. Holen Sie einmalig die Genehmigung der HR-Rechtsberatung für die genehmigte Formulierung ein; das Prüfprotokoll erfasst den SHA-256 des Mappings pro Lauf, sodass Revisionen im Retro sichtbar sind.
  4. Jurisdiktions-Richtliniendatei schreiben. Eine YAML-Datei mit einem Block pro Jurisdiktion, in der Ihr Unternehmen einstellt. Jeder Block setzt unsolicited_feedback: allow oder deny und verweist auf das relevante HR-Rechtsberatungs-Memo. Das Bundle liefert eine Vorlage; die Deny-Standardwerte sind Frankreich, Deutschland und jede Jurisdiktion mit aktiver beschäftigungsrechtlicher Guidance gegen dokumentierte Absagegründe.
  5. ATS API konfigurieren. Ashby, Greenhouse oder Lever API-Token mit Lesezugriff auf Scorecards und Kandidaten. Der Skill ruft Scorecards nach candidate_id ab; er akzeptiert keinen eingefügten Scorecard-Text, da dieser nicht auf den Quell-Interviewer zurückverfolgt werden kann.
  6. Optional: Transkript-Bundle konfigurieren. BrightHire oder Metaview API-Zugriff. Wenn eine transcript_id bereitgestellt wird, vergleicht der Skill Scorecard-Behauptungen mit Transkript-Turns in Schritt 4.
  7. Trockendurchlauf mit einem geschlossenen Kandidaten. Führen Sie den Skill für einen Kandidaten aus, der im letzten Quartal bereits abgelehnt wurde. Vergleichen Sie den Entwurf des Skills mit dem, was der Recruiter tatsächlich gesendet hat. Passen Sie das Rubrik-zu-Feedback-Mapping an, wenn die Kalibrierung abweicht — das Mapping, nicht das Modell, ist in der Regel der Hebel.

Was der Skill tatsächlich tut

Sechs Schritte, in Reihenfolge. Die Reihenfolge ist wichtig: Jurisdiktions-Gating und Scorecard-Validierung erfolgen, bevor das LLM jemals Kandidateninhalte liest, da das Freischalten des Modells auf Scorecard-Text in einem Deny-Jurisdiktionsfall einen Modellaufruf-Protokolleintrag mit kandidatenidentifizierenden Daten hinterlässt, die das Unternehmen nicht aufbewahren musste.

  1. Jurisdiktionsrichtlinie und Einwilligung validieren. Schlagen Sie die Jurisdiktion des Kandidaten in der Richtliniendatei nach. Wenn die Richtlinie unsolicited_feedback: deny lautet und der Kandidat kein schriftliches Feedback angefordert hat, stoppen Sie Spezifika und wechseln zur generischen Ablehnungsvorlage. Die Entscheidung, die Einwilligung vor dem Abrufen von Scorecards zu prüfen, hält die Datenminimierungsgeschichte für DSGVO Art. 5(1)(c) sauber.
  2. Scorecards (und optional Transkript) abrufen. Abruf über die ATS API. Entwürfe fallen lassen. Wenn der Loop weniger als zwei abgezeichnete Scorecards hat, stoppen — Feedback, das aus der Perspektive eines Interviewers synthetisiert wurde, ist eine Meinung, kein Feedback, und setzt das Unternehmen dem Risiko selektiver Beweisführung aus.
  3. Dimensionen und Belege identifizieren. Berechnen Sie den kross-interviewer-Mittelwert und die Standardabweichung pro Rubrikdimension. Oberflächliche Dimensionen, bei denen Mittelwert ≥ 4 (Stärke, warme Eröffnung) und Mittelwert ≤ 2 (Lücke Kandidat). Verweigern Sie die Darstellung jeder Dimension mit einer kross-interviewer-Standardabweichung ≥ 1,5 — der Loop hat nicht konvergiert, und Feedback zu einer nicht konvergierten Dimension würde einer „aber Interviewer X hat mich mit 5 bewertet”-Herausforderung nicht standhalten. Für jede angezeigte Dimension ziehen Sie wörtliche Belege aus den Scorecards (oder dem Transkript, wenn verfügbar). Kein wörtlicher String → die Dimension wird nicht angezeigt.
  4. Gegen das Rubrik-zu-Feedback-Mapping entwerfen. Übersetzen Sie höchstens eine Stärke und eine Lücke in kandidatenseitige Sprache unter Verwendung von references/1-rubric-to-feedback-mapping.md. Begrenzen Sie auf jeweils eine, damit der Entwurf nicht wie eine defensive Liste wirkt. Die Substitutions-Slots des Mappings werden aus strukturierten Feldern (Scorecard, Rubrik-Anker) oder der Genehmigungsliste ausgefüllt — das LLM schreibt niemals einen Substitutionswert frei, was der Schutz gegen falsche Spezifika ist.
  5. Bias- und Falsch-Spezifika-Screening. Durchsuchen Sie den Entwurf gegen references/2-banned-phrase-blocklist.md. Jeder Treffer hält den Lauf an und zeigt den offendierenden String. Überprüfen Sie, dass jede spezifische Behauptung auf einen wörtlichen Beleg-String aus Schritt 3 zurückgeführt werden kann — Behauptungen ohne Quelle stoppen. Dies ist ein separater Durchgang von Schritt 4; der Screening-Durchgang sieht nur den Entwurfstext, ohne Kenntnis der zugrunde liegenden Scorecards, sodass er eine gesperrte Phrase nicht als „aber der Interviewer meinte X” rationalisieren kann.
  6. Auf Festplatte und Prüfprotokoll schreiben. Schreiben Sie drafts/<candidate-id>.md und (für route: call) drafts/<candidate-id>-call-notes.md gemäß dem Format in references/3-output-format.md. Fügen Sie eine JSONL-Zeile an audit/<YYYY-MM>.jsonl an mit candidate_id_hash (SHA-256, nicht rohe ID), rubric_sha256, blocklist_sha256, mapping_sha256, angezeigten Dimensionen, Blocklist-Treffern, Modell-ID, Zeitstempel. Kein kandidatenidentifizierender Freitext in der Prüfzeile.

Das wörtliche E-Mail-Format, der generische Ablehnungs-Fallback und die Anrufnotizen-Vorlage leben in references/3-output-format.md. Das Format ist festgelegt, da nachgelagerte Verbraucher — Recruiter, Kandidat und zukünftige Prüfer — vorhersehbare Sprache ohne recruiter-spezifische Abweichungen benötigen.

Kostenrealität

Pro Absageentwurf, mit Claude Sonnet 4.5:

  • LLM-Token — typischerweise 12-25k Eingabe-Token (Rubrik-YAML + Scorecards + Skill-Anweisungen + Referenzdateien) und 0,5-1,5k Ausgabe-Token (der Entwurf plus Anrufnotizen). Bei Sonnet 4.5 sind das ca. 5-10 Cent pro Entwurf. Ein Recruiter-Team mit 200 Absageentwürfen pro Monat gibt 10-20 Dollar an Modellkosten aus.
  • ATS API-Kosten — null bei Ashby (kostenlose API), Greenhouse (im Tarif enthalten), Lever (enthalten). Transkript-Abrufe gegen BrightHire oder Metaview werden gegen den Pro-Seat-Plan angerechnet; Absagefeedback-Abrufe sind schreibgeschützt und verbrauchen keine neuen Transkript-Credits.
  • Recruiter-Zeit — der Gewinn liegt hier. Manuelles Verfassen einer durchdachten, evidenzbasierten Absage-E-Mail aus Scorecards dauert 20-30 Minuten pro Kandidat, wenn der Recruiter es gut macht, oder 3 Minuten, wenn er einen Formularbrief einfügt (was die meisten Teams in großem Maßstab letztlich tun). Der Skill produziert den 20-Minuten-Entwurf in unter 30 Sekunden; der Recruiter überprüft und bearbeitet in 4-7 Minuten. Nettoeinsparung: ca. 15-20 Minuten pro Absage auf dem Qualitätsniveau des durchdachten Entwurfs — das sind rund 50-60 Stunden pro Monat für ein Team mit 200 Absagen.
  • Einrichtungszeit — 30 Minuten für das Rubrik-zu-Feedback-Mapping und die Jurisdiktionsrichtlinie, wenn das Team bereits irgendwo genehmigte kandidatenseitige Formulierungen hat; länger, wenn die HR-Rechtsberatung noch nicht zu Absagefeedback-Sprache konsultiert wurde (dann ist dieses Gespräch die Voraussetzung, nicht dieser Skill).
  • Der Candidate Experience-Compound-Return. Kandidaten, die mit spezifischem, evidenzbasiertem Feedback abgelehnt werden, bewerben sich eher erneut, empfehlen eher andere und hinterlassen wesentlich seltener schädliche Glassdoor-Bewertungen — in der Recruiting-Literatur häufig zitierte Behauptungen liegen im Bereich 30-50% für Wiederbewerbungsabsicht, obwohl wir keine primäre Quelle für diese Zahlen haben und sie als richtungsweisend behandeln. Der Compound-Return zeigt sich in der Pipeline-Dichte ein Jahr später, nicht im Monat, in dem der Entwurf gesendet wurde.

Erfolgsmetrik

Verfolgen Sie drei Zahlen pro Monat im ATS:

  • Recruiter-Bearbeitungsabstand pro Entwurf. Die Anzahl der Zeichen, die der Recruiter zwischen dem Entwurf des Skills und der gesendeten Nachricht ändert. Wenn der Bearbeitungsabstand gegen null tendiert, genehmigt der Recruiter per Stempelverfahren — bringen Sie dies im Retro zur Sprache und überprüfen Sie das Rubrik-zu-Feedback-Mapping. Wenn der Bearbeitungsabstand konstant hoch ist, ist das Mapping falsch kalibriert.
  • Kandidaten-Antwortrate auf die Absage. Antworten auf eine Absage-E-Mail sind in der Regel Dankesnotizen und zukünftige Bewerbungshinweise (gutes Signal) oder Eskalationsnotizen (schlechtes Signal). Verfolgen Sie die Eskalationsrate als Prozentsatz der gesendeten Absagen. Ein Team, das Formblattabsagen verschickt, sieht typischerweise unter 1% Eskalation; das Ziel mit diesem Skill ist es, bei oder unter diesem Basiswert zu bleiben, nicht darüber. Wenn die Eskalationsrate steigt, produziert das Rubrik-zu-Feedback-Mapping Sprache, die falsch ankommt — neu einstellen.
  • Wiederbewerbungsrate innerhalb von 12 Monaten. Kandidaten, die durch diesen Skill abgelehnt wurden, versus Kandidaten, die durch den alten Formularbrief abgelehnt wurden, gemessen über die nächsten 12 Monate. Der Compound-Vorteil zeigt sich hier, nicht in Modellausgaben oder im Absage-Thread selbst.

vs. Alternativen

  • vs. Ashbys integrierte Ablehnungsvorlagen. Ashby (und Greenhouse, Lever) liefern Ablehnungsvorlagen mit Zusammenführungsfeldern für Kandidatenname und Rolle. Sie sind Vorlagen, kein Feedback — die Zusammenführungsfelder ziehen keine Scorecard-Belege, und es gibt keine rubrikbasierte Sprachschicht. Verwenden Sie Ashby-Vorlagen für Top-of-Funnel-Absagen, wo Vorlagen ehrlich sind. Verwenden Sie diesen Skill für Absagen in späten Phasen, wo Vorlagen gegenüber der Zeit, die der Kandidat investiert hat, abweisend wirken.
  • vs. generische Absage-E-Mails. Generische Absage ist die richtige Antwort in Deny-Jurisdiktionsfällen, wenn keine Einwilligung erteilt wurde und wenn die Rubrik kein vertretbares Spezifikum ergeben hat. Der Skill schreibt die generische Ablehnungsvorlage in diesen Fällen Byte für Byte. Der Unterschied ist, dass der Skill die Entscheidung deterministisch gemäß Jurisdiktionsrichtlinie und Rubrikoutput trifft, anstatt dass der Recruiter aus Erschöpfung auf generisch zurückgreift.
  • vs. manuell vom Recruiter geschriebene Notizen. Manuelle Notizen sind der Goldstandard für Senior- oder VIP-referenzierte Kandidaten, bei denen der Recruiter den Beziehungskontext und die Zeit hat. Der Skill zahlt sich beim Volumen aus — die 80% der Late-Stage-Absagen, bei denen der Recruiter sonst einen Formularbrief einfügen würde, da manuelles Entwerfen in großem Maßstab nicht in den Tag passt. Für das Senior-Tier bietet die Anrufnotizen-Datei dem Recruiter einen strukturierten Ausgangspunkt für den Anruf, und der Recruiter improvisiert von dort.
  • vs. einem LLM ohne Rubrikdatei und ohne Blocklist. Dies ist der Fehlermodus, gegen den der Skill entwickelt wurde. Ein LLM, das allein aus Scorecards entwirft, ohne Rubrik-Grundlage, ohne Banned-Phrase-Blocklist und ohne Prüfprotokoll, produziert schnellen, selbstsicheren, plausibel klingenden Ablehnungstext — und ungefähr jeder zwanzigste Entwurf enthält ein halluziniertes Zitat, ein Vergleichsranking oder einen Proxy für eine geschützte Klasse. Die Checklisten-Dateien des Bundles sind es, die die Fehlerrate gegen null bewegen.

Fallstricke

  • EEOC-implizierende Sprache. Geschützt durch die Banned-Phrase-Blocklist in references/2-banned-phrase-blocklist.md, die als separater Durchgang in Schritt 5 ohne Kenntnis der zugrunde liegenden Scorecards läuft. Treffer stoppen den Lauf und zeigen den offendierenden String. Bearbeiten Sie die Blocklist nicht, um einen Entwurf zu bestehen — korrigieren Sie stattdessen die Rubrik oder die Scorecard-Sprache.
  • Falsche Spezifika vom LLM. Geschützt durch die Regel „keine Synthese ohne wörtliche Zitierung” in Schritt 3. Jede Behauptung im Entwurf muss auf einen wörtlichen String aus einer abgezeichneten Scorecard oder einem Transkript zurückführbar sein. Kein wörtlicher String → die Dimension wird nicht angezeigt. Dies ist der Schutz gegen den häufigsten Fehlermodus von LLM-erstelltem Feedback — plausibel klingende Zitate, die kein Interviewer tatsächlich geschrieben hat, die dem Kandidaten als Fakten präsentiert werden.
  • Vergleichsranking-Sprache. Geschützt durch das Rubrik-zu-Feedback-Mapping in references/1-rubric-to-feedback-mapping.md, das keine vergleichenden Formulierungen enthält, und durch die Blocklist in Schritt 5, die sie auffängt, wenn sie einschleicht. Vergleichsranking ist das, was eine konstruktive Absage in einen Glassdoor-Beitrag verwandelt.
  • Selektives Beweisrisiko. Geschützt durch Schritt 2 (Stopp, wenn der Loop weniger als zwei abgezeichnete Scorecards hat) und Schritt 3 (Verweigung der Darstellung von Dimensionen mit kross-interviewer-Standardabweichung bei oder über 1,5). Interviewer-Uneinigkeit wird nicht zu Kandidatenfeedback.
  • Auto-Send-Drift. Geschützt durch das Fehlen jeglicher send-Aktion im Skill. Entwürfe werden in drafts/<candidate-id>.md für den Recruiter zur Überprüfung, Bearbeitung und zum Versand aus dem ATS-Postausgang geschrieben. Der Recruiter ist das Gate.
  • Generischer-Boilerplate-Schaden. Geschützt durch Schritt 3’s Weigerung, eine Dimension ohne wörtlichen Beleg anzuzeigen — wenn die Rubrik nichts Sicheres zum Teilen ergibt, schreibt der Skill die generische Ablehnungsvorlage statt schwache Spezifika zu synthetisieren. Generische Absage ist ehrlich; schwache Spezifika sind schlimmer als keine Spezifika.
  • PII im Prüfprotokoll. Geschützt durch Schritt 6, der nur candidate_id_hash (SHA-256) schreibt, niemals die rohe Kandidaten-ID, den Namen oder den Scorecard-Text. Das Prüfprotokoll dient der Lauf-Reproduzierbarkeit, nicht der Kandidatendatenaufbewahrung. Kandidatenseitige Entwürfe leben in drafts/ unter der eigenen Aufbewahrungsrichtlinie des Recruiters.
  • Kalibrierungsdrift über Rollen und Senioritätsstufen. Geschützt durch rollenspezifische Rubrik-YAMLs und durch das Rubrik-zu-Feedback-Mapping, das pro Team versioniert ist. Senior-Leadership-Absagen brauchen eine andere Rahmung als Einstiegspositionen; die Mapping-Datei ist der Ort dafür, nicht der Skill-Code.
  • Datenschutz und Datenresidenz. Stellen Sie sicher, dass der Skill im Rahmen von Tier-A-Enterprise-KI gemäß KI-Richtlinie betrieben wird. Interview-Inhalte sind sensibel; der Kandidat hat nicht zugestimmt, dass sie von einem Drittanbieter-Modell verarbeitet werden, es sei denn, Ihre KI-Richtlinie und Ihre Scorecard-Erhebungs-Einwilligungssprache decken dies ausdrücklich ab.

Stack

Das Skill-Bundle befindet sich unter apps/web/public/artifacts/rejection-feedback-claude-skill/ und enthält:

  • SKILL.md — die Skill-Definition
  • references/1-rubric-to-feedback-mapping.md — pro Team ausfüllen, HR-rechtsberatungsgenehmigte Formulierungen pro Rubrikdimension
  • references/2-banned-phrase-blocklist.md — Vorab-Prüfungen des Entwurfs (nicht bearbeiten, um biased Entwürfe zu bestehen)
  • references/3-output-format.md — das wörtliche E-Mail-, generische Ablehnungs- und Anrufnotizen-Format

Tools, die der Workflow voraussetzt: Claude (das Modell), Ashby oder Greenhouse oder Lever (das ATS, in dem die Scorecards liegen), und optional BrightHire oder Metaview (Interview-Transkripte für reichhaltigere Beleg-Grundlage). Geschwister-Workflow, der die Rubrikquelle teilt: der Interview-Debrief-Skill.

Files in this artifact

Download all (.zip)