ooligo
claude-skill

Boolean- und X-Ray-Suchaufbau mit Claude

Difficulty
Anfänger
Setup time
20min
For
sourcer · recruiter · talent-acquisition
Recruiting & TA

Stack

Eine Claude Skill, die ein strukturiertes Rollen-Intake (Must-haves, Nice-to-haves, Anti-Signale, Standortpolitik) in drei kalibrierte Such-Artifacts umwandelt: einen hireEZ-Boolean-String, eine Google-X-Ray-Abfrage für LinkedIn / GitHub / Stack Overflow und einen Juicebox-PeopleGPT-Prompt mit strukturierten Filtern. Jede Abfrage wird mit ihrer erwarteten Pool-Größenband und den Dimensionen beschriftet, die sie erfasst und nicht erfasst, damit der Sourcer den Kanal für die Rolle auswählen kann, statt dieselbe Abfrage gegen drei Tools auszuführen und drei unterschiedlich geformte Pools zu erhalten.

Wann einsetzen

  • Sie öffnen eine neue Stelle und müssen drei Sourcing-Kanäle parallel bespielen, ohne drei verschiedene Abfragen von Hand zu verfassen.
  • Sie stimmen eine ertragsarme Suche ab – die aktuelle Abfrage gibt 4.000 Ergebnisse oder 12 Ergebnisse zurück, keines davon nützlich – und müssen testen, ob das Problem die Synonym-Abdeckung, NOT-Klauseln oder der Standortfilter ist.
  • Sie kalibrieren einen Junior-Sourcer. Der strukturierte Output der Skill macht sichtbar, welches Signal in jeder Abfrage die Eliminierungsarbeit leistet – das ist der Teil, den das Boolean-Training üblicherweise überspringt.

Wann NICHT einsetzen

  • Ersetzen des Sourcer-Urteils darüber, was als Signal gilt. Die Skill verwandelt das Rubrik in eine Abfrage; sie erstellt das Rubrik nicht. Wenn das Rollen-Intake zwei Stichpunkte hat, werden die Abfragen drei Varianten von zwei Stichpunkten sein und keine besseren Kandidaten zurückgeben als Raten.
  • Scraping öffentlicher LinkedIn-Profile im großen Maßstab. Die X-Ray-Abfrage ist für gelegentlichen Einsatz gegen die öffentlich indexierte Oberfläche mit Rate-Limiting durch den Recruiter vorgesehen. Die Skill warnt und verweigert das Massenblättern. Produktives Sourcing über öffentliche LinkedIn-URLs ist unabhängig von der hiQ-Entscheidung ein ToS-Verstoß.
  • Aufbau von Diversity-Slates. Boolean-Abfragen können Bias durch Proxy-Begriffe kodieren (Schulname, Gruppenzugehörigkeit). Verwenden Sie den Diversity Slate Auditor für den resultierenden Kandidaten-Pool, nicht die Suchabfrage, um dies zu erkennen.
  • Vertrauliche Executive-Suchen. Abfragen, die Spuren in gemeinsam genutzten Suchverläufen oder Browser-Caches hinterlassen, sind ein Expositionsrisiko. Führen Sie diese manuell durch, mit deaktiviertem Suchverlauf.

Setup

  1. Bundle einspielen. Platzieren Sie apps/web/public/artifacts/boolean-search-builder-claude-skill/SKILL.md in Ihrem Claude Code Skills-Verzeichnis oder in Claude.ai Custom Skills.
  2. Rollen-Intake verfassen. Kopieren Sie references/1-role-intake-template.md und ersetzen Sie jeden Platzhalter. Das Intake unterscheidet Must-haves (binär, als AND verwendet), Nice-to-haves (additiv, für Ranking verwendet), Anti-Signale (als NOT verwendet) und Standortpolitik (in strukturierte Filter geparst).
  3. Synonym-Tiefe konfigurieren. Der Standard der Skill ist 5 Synonyme pro Dimension. Erhöhen Sie auf 7–8 für eine Nischen-Rolle, bei der das natürlichsprachliche Label mehrdeutig ist (z. B. bedeutet „Platform Engineer” bei verschiedenen Unternehmen unterschiedliches). Begrenzen Sie auf 10 – darüber hinaus geben die Abfragen False-Positive-Pools zurück.
  4. Auf einer abgeschlossenen Rolle ausführen zuerst. Generieren Sie Abfragen für eine Rolle, die Sie letztes Quartal besetzen. Vergleichen Sie die Synonym-Sets, die die Skill gewählt hat, mit den Synonymen, die Sie tatsächlich verwendet haben. Stimmen Sie das Rollen-Intake ab, wenn die Skill offensichtliche angrenzende Titel verfehlt oder unplausible einschließt.

Was die Skill tatsächlich tut

Fünf Schritte. Die Reihenfolge ist wichtig: das Rubrik-Pre-Flight läuft zuerst, weil ein Rubrik mit Protected-Class-Proxies Abfragen produziert, die diese kodieren.

  1. Intake validieren gegen references/2-rubric-fairness-checklist.md. Hält an, wenn das Rollen-Intake Schul-Tier-Scoring, Name-Pattern-Filterung, Employment-Gap-Strafen oder „Culture Fit” ohne Verhaltensanker enthält. Die Prüfung läuft zum Intake-Parse-Zeitpunkt, nicht zum Query-Generierungs-Zeitpunkt, sodass ein verletzendes Rubrik nie den Synonym-Expansions-Schritt erreicht.
  2. Synonyme pro Dimension erweitern. Für jedes Must-have 5–10 Synonyme generieren, die in der Branchennutzung verankert sind (Titel, Framework-Namen, Zertifikate). Das Reasoning pro Synonym zitieren, damit der Sourcer die unplausiblen vor dem Aufbau der Abfrage entfernen kann. Synonyme werden nicht erfunden; wenn das Modell ein Synonym nicht in benannter Nutzung verankern kann, wird es weggelassen.
  3. Drei Abfragen parallel aufbauen. hireEZ Boolean — explizite AND/OR/NOT-Gruppierung mit Klammern, 5-Synonym-Cap, Standort als strukturierter Filter statt Freitext geparst. Google X-Raysite:linkedin.com/in oder site:github.com mit Titel-Quoting und --Filter für Anti-Signale. Juicebox PeopleGPT — natürlichsprachlicher Prompt mit strukturierten Filtern für Level und Standort. Jede Abfrage zielt auf die Stärken des Kanals ab; dieselbe Rolle wird nicht identisch über alle drei beschrieben.
  4. Pool-Größenband schätzen. Für jede Abfrage eine erwartete Pool-Größenband zurückgeben (z. B. „200–800 Ergebnisse auf hireEZ für diese Geographie”) mit den genannten Annahmen. Die Band wird gegen Synonymanzahl und Standortfilter kalibriert; Sourcer können auf Basis der Band enger oder weiter stellen, statt die Abfrage auszuführen und überrascht zu werden.
  5. Dimensionale Abdeckungslücken aufzeigen. Jede Abfrage wird mit dem annotiert, was sie nicht erfasst – üblicherweise Response-Likelihood (kein Aktualitätsfilter), Level (Boolean kann „Senior IC Scope” schwer kodieren) oder Verhaltens-Signale (kein Boolean-Ausdruck erfasst „Migration geleitet”). Der Output macht die Lücke sichtbar, damit der Sourcer den nächsten Schritt plant (Rubrik-Ranking des zurückgegebenen Pools oder eine Follow-up-Abfrage für die fehlende Dimension).

Kostenrealität

Pro Rollen-Intake-zu-drei-Abfragen auf Claude Sonnet 4.6:

  • LLM-Tokens — typischerweise 4–7k Input (Intake + Skill-Anweisungen + Beispiele) und 2–3k Output (drei Abfragen + Reasoning pro Synonym + Pool-Größenschätzung). Zu Sonnet-4.6-Listenpreisen rund $0,04–0,07 pro Rolle. Ein Sourcer, der 30 Rollen pro Quartal ausführt, gibt $1–2 in Modellkosten aus.
  • Kanalkosten — hängt davon ab, was Sie mit den Abfragen machen. Das Ausführen verbraucht das Kanalquotient, das Sie sowieso ausgegeben hätten. Die Skill selbst läuft gegen keine Sourcing-API.
  • Sourcer-Zeit — der Gewinn. Das Verfassen von drei kalibrierten Abfragen von Hand dauert 30–60 Minuten pro Rolle; die Skill braucht 5–10 Minuten einschließlich Lesen des Synonym-Reasonings und Entfernen unplausibler Begriffe. Der größere Zeitgewinn liegt beim Abstimmen ertragsarmer Suchen, wo die Pool-Größenschätzung der Skill die Diagnoseschleife sichtbar macht.
  • Setup-Zeit — 20 Minuten einmalig. Die Rollen-Intake-Vorlage ist das bindende Artifact; Teams, die bereits strukturierte Intakes schreiben, adoptieren die Skill in einem Rollen-Öffnungszyklus.

Erfolgsmetrik

Verfolgen Sie zwei Zahlen pro gesourceter Rolle:

  • First-Pass-Yield — Anteil der Kandidaten aus dem abgefragten Pool, die den Rubrik-Ranking-Schritt bestehen (im Prozess des Sourcers oder via der Candidate Sourcing Skill). Sollte bei 25–50 % für eine kalibrierte Abfrage liegen; unter 15 % bedeutet, die Synonym-Expansion ist zu weit, über 60 % zu eng.
  • Pool-Größenschätzungs-Genauigkeit — tatsächliche Pool-Größe, die der Kanal zurückgibt, vs. die Schätzung der Skill. Sollte innerhalb ±50 % der Band für eine bekannte Geographie liegen. Größere Abweichung bedeutet, die Synonymanzahl ist für die Spezifität der Rolle falsch.

Vergleich mit Alternativen

  • vs. hireEZs AI Match (eingebaute Query-Suggestion) — hireEZs Vorschläge sind gut und die In-Product-UX ist schneller als Kopieren-Einfügen aus einer Skill. Wählen Sie AI Match, wenn Sie in hireEZ leben. Wählen Sie die Skill, wenn Sie kalibrierte Abfragen für mehrere Kanäle benötigen (damit dieselbe Rolle hireEZ, Juicebox und X-Ray mit konsistenten Kriterien trifft), oder wenn Sie das Synonym-Reasoning für die Schulung eines Junior-Sourcers sichtbar haben möchten.
  • vs. ChatGPT-ähnlichem „Schreib mir eine Boolean-Abfrage” — generischer Chat gibt einen Boolean-String ohne Per-Synonym-Reasoning, ohne Pool-Größenschätzung, ohne kanalspezifische Abstimmung und ohne Fairness-Pre-Flight zurück. Die Skill ist strukturell anders: Sie zwingt die Dimensionen in separate Felder, lehnt voreingenommene Rubrika ab und zeigt die Abdeckungslücke auf.
  • vs. Boolean-Cheat-Sheet-Vorlagen — Vorlagen funktionieren für 80 % der Rollen, die zur Vorlage passen, und produzieren 4.000-Ergebnis-Müll-Abfragen bei den 20 % der Rollen, bei denen die Vorlagenannahmen falsch sind (Nischen-Stack, hybrider IC/Manager-Scope, regulierte Branche). Die Skill ist die Diagnose für diese Edge Cases.
  • vs. manuelles Verfassen von Abfragen — manuell ist die richtige Wahl für Rollen mit einem stabilen, wiederholbaren Rubrik, bei dem die Heuristiken des Sourcers die Synonyme bereits kodieren. Die Skill verdient ihre Setup-Kosten bei Net-New-Rollen oder beim Abstimmen ertragsarmer Suchen.

Wichtige Hinweise

  • Bias-Kodierung durch Proxy-Begriffe. Guard: das Fairness-Pre-Flight in Schritt 1 hält an, wenn das Rollen-Intake Protected-Class-Proxies nennt. Schul-Prestige insbesondere: listen Sie keine spezifischen Schulen als must_have auf; listen Sie das technische Tiefensignal auf, mit dem diese Schulen tendenziell korrelieren, und lassen Sie die Synonym-Expansion Absolventen von Non-Target-Schulen mit der Tiefe erfassen.
  • LinkedIn-ToS-Exponierung bei X-Ray. Guard: der X-Ray-Query-Output ist mit einer „nur manueller Einsatz”-Warnung und einem empfohlenen Maximum von 50 Seiten-Abrufen pro Abfrage annotiert, bevor auf die Recruiter API oder Juicebox gewechselt wird. Die Skill generiert keine Scraping-Skripte.
  • Synonym-Halluzination. Guard: Jedes Synonym im Output zitiert das Quell-Reasoning („häufig verwendet bei Stripe / Plaid / Fintechs”, „Framework eingeführt 2022, Name variiert”). Synonyme ohne verankerte Begründung werden verworfen, bevor die Abfrage aufgebaut wird. Wenn der Sourcer ein zitiertes Synonym sieht, das nicht mit der realen Nutzung übereinstimmt, ist das das Signal, das Rollen-Intake abzustimmen.
  • Pool-Größenschätzungs-Drift. Guard: die Schätzung ist eine Band, keine Zahl, und ist mit der Geographie und der Synonymanzahl annotiert, die sie annimmt. Wenn tatsächliche Ergebnisse >2× von der Band abweichen, Drift protokollieren und neu abstimmen; handeln Sie nicht auf die Schätzung, als ob es eine Messung wäre.
  • Veraltete Synonyme in schnell bewegenden Stacks. Guard: die Synonym-Quellen der Skill enthalten eine „zuletzt verifiziert”-Prüfung. Für sehr neue Rollen (z. B. AI-Infra-Positionen, bei denen sich Titel 2025–2026 geändert haben) markiert die Skill Synonyme als „Post-2024-Nutzung; im Kanal verifizieren” statt sie zu behaupten.

Stack

Das Skill-Bundle liegt unter apps/web/public/artifacts/boolean-search-builder-claude-skill/ und enthält:

  • SKILL.md — die Skill-Definition (wann aufrufen, Inputs, Methode, Ausgabeformat, Hinweise)
  • references/1-role-intake-template.md — ausfüllbare Vorlage pro Rolle
  • references/2-rubric-fairness-checklist.md — Pre-Flight-Prüfungen (nicht bearbeiten, um voreingenommene Intakes passieren zu lassen)
  • references/3-channel-query-formats.md — kanalspezifische Syntaxhinweise (hireEZ, X-Ray, Juicebox)

Tools, die der Workflow voraussetzt: Claude (das Modell), hireEZ und Juicebox (die Retrieval-Kanäle). Für das Ranking des zurückgegebenen Pools siehe die Candidate Sourcing Skill.

Verwandte Konzepte: AI Sourcing, Passive Candidate Sourcing, Recruiting Funnel Metrics.

Files in this artifact

Download all (.zip)