ooligo
claude-skill

Stellenbeschreibungs-Writer mit Claude

Difficulty
Anfänger
Setup time
20min
For
recruiter · hiring-manager · talent-acquisition
Recruiting & TA

Stack

Ein Claude Skill, der einen Hiring Manager über eine neu geöffnete Rolle interviewt und noch am selben Arbeitstag einen strukturierten, kompetenzbasierten, jurisdiktionsbewussten JD-Entwurf produziert. Der Skill wird als SKILL.md plus drei Referenzdateien unter apps/web/public/artifacts/jd-writer-claude-skill/ geliefert. In das Claude Code Skills-Verzeichnis ablegen, die Vorlagen durch die tatsächlichen Gerüste des Teams ersetzen — und der Skill verwandelt das 90-minütige „Ich schreibe die Stellenbeschreibung diese Woche”-Muster in ein 20-minütiges Gespräch, das einen Entwurf produziert, den der Recruiter bearbeiten und veröffentlichen kann.

Wann verwenden

Den Skill in dem Moment einsetzen, in dem die Rolle geöffnet wird — vor jeglichem Sourcing, vor jeder externen Veröffentlichung, bevor der Recruiter Zeit in den Intake-Call investiert hat. Die richtige Eingabeform: Rollentitel plus Level, die losen Intake-Notizen des Hiring Managers, die Ziel-Jurisdiktion und ein bis drei vergleichbare Stellenbeschreibungen (intern oder extern) für die Voice-Verankerung. Der Skill führt ein fünf- bis achtfragiges Interview gegen diese Notizen durch, ordnet die Antworten dem relevanten Rollenfamilien-Gerüst aus references/1-role-family-templates.md zu und gibt einen Markdown-Entwurf aus.

Der Anwendungsfall, bei dem der Skill am stärksten überzeugt: eine Rolle am Montag öffnen und bis Mittwoch in einer Gehaltstransparenz-Jurisdiktion eine postbare Stellenbeschreibung benötigen. Die Jurisdiktionsmatrix unter references/3-jurisdiction-matrix.md fügt die wörtliche Gehaltsoffenlegungssprache, die EEO-Erklärung und die Anpassungssprache für die Ziel-Jurisdiktion ein; der Recruiter muss NYC Local Law 32 oder California SB 1162 nicht mid-Draft nachschlagen.

Wann NICHT verwenden

  • Auto-Veröffentlichung einer Stellenbeschreibung ohne Recruiter-Review. Der Skill gibt einen Entwurf aus — keine fertige Ausschreibung. Hiring Manager und Recruiter prüfen beide, bevor die Stellenbeschreibung ein ATS oder eine Job-Börse berührt. KI-generierte Stellenbeschreibungen enthalten subtile Fehler — falscher Titel, falsche Jurisdiktion, falscher Scope — die ein Mensch abfangen muss.
  • Rollen in Pay-Range-Audit-Jurisdiktionen vor dem Compliance-Review. NYC §8-1402, California SB 1162, Colorado Equal Pay Act erfordern alle, dass die veröffentlichte Spanne eine „good faith”-Schätzung widerspiegelt; die Spanne des Skills stammt aus den Angaben des Managers, die noch nicht gegen die tatsächliche Offer-History geprüft wurden. Den Entwurf an Compliance weiterleiten — nicht an die Publishing-API.
  • Interne Mobilitätsausschreibungen. Andere Sprache, andere EEO-Anforderungen, oft andere Scope-Formulierungskonventionen. Stattdessen eine mobilitätsspezifische Vorlage verwenden.
  • Nachbesetzungen, bei denen die bisherige Stellenbeschreibung noch korrekt ist. Das last_reviewed-Datum der bisherigen Stellenbeschreibung aktualisieren und sie veröffentlichen. Neu zu erstellen führt zu Drift ohne Nutzen.
  • Rollen, bei denen der Hiring Manager den Scope noch nicht festgelegt hat. Der Skill verstärkt den Intake — er kann ihn nicht ersetzen. Kann der Manager nicht beantworten, „wie sieht Erfolg nach zwölf Monaten als messbare Outcome aus”, ist der richtige nächste Schritt ein weiteres Scoping-Call — kein JD-Entwurf.

Setup

  1. SKILL.md und das references/-Verzeichnis in den Claude Code Skills-Ordner legen, Struktur beibehalten.
  2. references/1-role-family-templates.md durch die tatsächlichen Gerüste des Teams ersetzen. Die Standards decken Engineering, Sales, Marketing, Ops und Leadership ab, verwenden aber generische Abschnittsreihenfolgen.
  3. references/2-biased-language-blocklist.md durch die tatsächliche Blocklist des Teams ersetzen. Die Standards stützen sich auf öffentliche Bias-in-JD-Forschung (Gaucher 2011, Textio 2023 Benchmarks), aber jedes Team hat seine eigenen kontextspezifischen Begriffe hinzuzufügen.
  4. references/3-jurisdiction-matrix.md von einem Arbeitsrechtsexperten prüfen lassen, bevor man sich auf die wörtlichen EEO- und Anpassungsblöcke verlässt — die Standards sind ein Ausgangspunkt, keine Rechtsberatung.
  5. Auf einer Rolle testen, für die bereits eine aktuelle Stellenbeschreibung vorliegt. Den Output des Skills mit der bestehenden Stellenbeschreibung vergleichen; die Lücke zeigt, was die Gerüste und die Blocklist kodieren müssen.

Was der Skill tatsächlich tut

Der Skill führt fünf Unteraufgaben in strikter Reihenfolge aus, dokumentiert im Method-Abschnitt von SKILL.md. Schritt eins interviewt gegen die Intake-Notizen — fünf bis acht gezielte Klärungsfragen zu Scope, Zwölf-Monats-Erfolg als messbarem Outcome, Team-Kontext, Must-have vs. Nice-to-have-Skills als beobachtbaren Verhaltensweisen, dem realistischen Arbeitsalltag und den schwierigen Aspekten. Warum Intake-Notes-first statt Template-first: Mit einem Template zu beginnen, biasiert hin zu generischen Verantwortlichkeiten, und die resultierende Stellenbeschreibung liest sich wie jede andere Stellenbeschreibung auf LinkedIn.

Schritt zwei ordnet die Antworten dem nächstgelegenen Rollenfamilien-Gerüst zu. Schritt drei konvertiert jede Anforderung in einen beobachtbaren Skill oder Outcome — „5+ Jahre bei FAANG” wird zu „hat verteilte Systeme bei über 10M Anfragen pro Tag designed und betrieben”; „CS-Abschluss erforderlich” wird zu „nachweisbare Systems-Design-Kompetenz durch Interview oder Portfolio, Abschluss nicht erforderlich.” Anforderungen mit Credential-Fokus schrumpfen den Kandidatenpool um 40–60 % ohne die Qualität der Einstellungen zu verbessern, laut öffentlichen BCG- und Burning-Glass-Studien. Der Skill verweigert das Schreiben von „X Jahre Erfahrung erforderlich” ohne eine spezifische Outcome-Begründung.

Schritt vier führt einen separaten Bias-Screening-Durchlauf gegen den gesamten Entwurf durch. Bias-Begriffe häufen sich in Revisionen, nicht in ersten Entwürfen; Post-Draft-Screening erkennt sie zuverlässiger als During-Draft-Selbstüberwachung. Schritt fünf fügt die wörtlichen jurisdiktionsspezifischen Compliance-Blöcke ein.

Kostenrealität

Pro Stellenbeschreibung verbraucht der Skill ca. 30k–60k Tokens (Interview-Turns, Referenz-Lesevorgänge, Entwurf, Bias-Screen-Durchlauf, Jurisdiktions-Lookup), was auf Sonnet 4.5 ca. 0,15–0,40 USD oder auf Opus 4.7 ca. 0,75–2,00 USD kostet. Zeitkosten: 15–20 Minuten Hiring-Manager-Zeit im Interview, 10–15 Minuten Recruiter-Bearbeitungszeit. Vergleich zum Status quo: Der Recruiter verbringt 60–90 Minuten mit dem Erstellen aus einem 30-minütigen Intake-Call heraus, leitet dann für zwei Bearbeitungsrunden über drei bis fünf Tage zurück an den Manager. Der Skill komprimiert den Drafting-Tail, ohne die menschliche Prüfung zu entfernen.

Die zusammengesetzten Kosten, die der Skill vermeidet, sind nachgelagert: Eine vage Stellenbeschreibung produziert einen vagen Bewerberpool, was 2–3 zusätzliche Screening-Runden pro Einstellung produziert, gemäß Recruiting-Funnel-Metriken. Die Pro-JD-Kosten des Skills zahlen sich über den gesamten Funnel aus — nicht nur beim Drafting-Schritt.

Erfolgsmetrik

Zykluszeit von „Rolle geöffnet” bis „Stellenbeschreibung veröffentlicht”. Status quo bei den meisten Ops-Teams: 4–7 Kalendertage. Mit dem Skill im Einsatz: 1–2 Kalendertage. Im ATS als req_opened_at bis posting_published_at verfolgen, gefiltert auf Rollen, bei denen der Hiring Manager den Skill tatsächlich genutzt hat. Sekundärmetrik: Verhältnis von Must-have- zu Nice-to-have-Anforderungen. Der Skill begrenzt Must-haves auf fünf; die Metrik sollte auf eine 5:N-Form konvergieren statt auf die 12:0-Form, die credential-lastige Stellenbeschreibungen produzieren.

vs. Alternativen

  • Manuell vom Hiring Manager verfasste Stellenbeschreibungen: höchste Varianz. Ein erfahrener Manager produziert eine hervorragende Stellenbeschreibung; ein widerwilliger Manager produziert eine Kopie der Stellenbeschreibung der letzten Rolle mit geändertem Titel. Der Skill normalisiert den Output unabhängig vom Engagement des Managers.
  • Textio: starkes Echtzeit-Bias-Screening, gute Benchmarks, schwach beim strukturellen Drafting (es bearbeitet, es erstellt nicht). Gute Ergänzung, kein Ersatz — zuerst den Skill ausführen, dann in Textio für einen zweiten Screen einfügen.
  • Datapeople: ähnlich wie Textio mit stärkerer Gehaltstransparenz-Orientierung. Dasselbe Ergänzungsmuster.
  • Generischer Claude-Prompt ohne Skill: produziert generische Stellenbeschreibungen, weil Markensprache, Rollenfamilien-Gerüste, Jurisdiktionsmatrix und Blocklist in den Referenzdateien liegen — nicht in einem freien Prompt. Der Skill ist die Struktur, die den LLM-Output nicht-generisch macht.

Watch-outs

  • Bias-Begriffe schleichen sich bei Bearbeitungen wieder ein. Der Bias-Screening-Durchlauf läuft auf dem ersten Entwurf; überarbeitet der Recruiter einen Abschnitt, muss der Durchlauf erneut ausgeführt werden. Guard: Der Skill gibt als letzte Zeile jedes Outputs einen rerun-bias-screen-Hinweis aus und verweigert die Markierung einer Stellenbeschreibung als bias_checked: true ohne einen expliziten Re-Screen-Aufruf.
  • Unrealistische Must-haves blähen auf, wenn der Manager Domain-Experte ist. Engineers, die Engineering-Stellenbeschreibungen schreiben, neigen dazu, jedes Tool, das sie persönlich nutzen, als Must-have aufzulisten. Guard: Der Skill begrenzt Must-haves auf fünf und zwingt alles darüber hinaus in Nice-to-have, wobei das explizite Override des Managers erforderlich ist, um die Grenze zu überschreiten.
  • Pay-Range-Auslassung in regulierten Jurisdiktionen. Eine Veröffentlichung ohne Gehaltsband in NY, CA, CO, WA oder IL löst Bußgelder pro Verstoß aus. Guard: Wenn die Jurisdiktion der regulierten Liste entspricht und pay_range fehlt, ersetzt der Skill den Vergütungsabschnitt durch ein blockierendes TODO und verweigert die Ausgabe eines „ready-to-post”-Status.
  • Voice-Mismatch mit der Employer Brand. Generische Claude-Standards produzieren generische Stellenbeschreibungen. Guard: Der Skill erfordert mindestens eine vergleichbare Stellenbeschreibung im comparables-Input und verweigert das Drafting ohne sie.
  • Längenexplosion. Stellenbeschreibungen über 600 Wörter werden überflogen, und die Einstellungsqualität sinkt mit zunehmender Länge. Guard: Der Skill zielt auf 400 Wörter für Individual-Contributor-Rollen und 550 für Leadership-Rollen, mit einem Wortzahl-Footer, der über dem Cap warnt.

Stack

  • Claude Code oder Claude.ai mit aktivierten Custom Skills — führt den SKILL.md-Interview-Loop und die Referenz-Lesevorgänge aus.
  • Ihr ATS — Ziel für die veröffentlichte Stellenbeschreibung. Der Skill gibt Markdown aus; der Recruiter fügt es in das ATS ein.
  • Ihre Employer Brand-Sprachreferenz — mindestens eine vergleichbare Stellenbeschreibung, die bei jedem Lauf in den comparables-Input geladen wird.
  • Optional: Textio oder Datapeople — zweiter Bias-Screen auf dem Entwurf vor der Veröffentlichung.

Files in this artifact

Download all (.zip)