ooligo
claude-skill

ICP-passende Account-Listen aus öffentlichen Signalen mit Clay und Claude aufbauen

Difficulty
Fortgeschritten
Setup time
45min
For
revops · sdr-leader
RevOps

Stack

Die meisten ICP-Übungen driften in Adjektiv-Suppe — „Mid-Market-SaaS in Fintech, Growth-Mindset, sicherheitsbewusst.” Listen, die aus einer solchen Beschreibung aufgebaut werden, schießen entweder unter (Filter zu eng, Sie bekommen 30 offensichtliche Accounts, die alle schon haben) oder überschießen (Filter zu locker, Sie bekommen 4.000 Logos und die AEs ignorieren die Datei). Das Bundle, das diese Seite liefert, macht die Umkehrung: Statt das ICP zu beschreiben, zeigen Sie auf zehn bis zwanzig Closed-Won-Accounts und lassen Claude umgekehrt erschließen, was sie gemeinsam haben, dann lassen Sie Clay diese Signatur in Filter und Anreicherung übersetzen.

Das Artefakt ist ein Claude Skill — icp-list-builder — der die Seed-to-List-Schleife von Ende zu Ende ausführt und einen geordneten Entwurf in eine Clay-Tabelle schreibt. Er ist darauf ausgelegt, einem Reviewer gleichzeitig einen Markdown-Report und eine Clay-Tabelle zu übergeben, nicht direkt in den Outbound zu pushen.

Wann einsetzen

Verwenden Sie diesen Skill, wenn Sie 10–20 Closed-Won-Accounts nennen können, die eine erkennbare Form teilen, und Sie möchten, dass die nächsten 100–500 Kandidaten wie sie aussehen. Die häufigsten Trigger in der Praxis:

  • Vierteljährliche Territory-Auffrischung — AEs brauchen einen Listenentwurf pro Region, frisch gegen aktuelle öffentliche Signale bewertet
  • Ein neues Wedge-Produkt oder neues Preisgestaltungs-Tier startet und die Basis der „Leute, die Ja gesagt haben” ist klein, aber echt
  • Ein Outbound-Programm hat das offensichtliche ICP bearbeitet und das Team braucht eine zweite Welle, die von dem informiert ist, was abgeschlossen hat, nicht von dem, was der Gründer ursprünglich als ICP imaginierte

Der Skill setzt ein Clay-Account auf dem Pro-Plan oder höher voraus. Darunter ist die Anreicherungs-Oberfläche zu schmal für die Lookalike-Schleife, um nützlich zu sein, und Sie werden für einen Workflow bezahlen, der ungefähr das tut, was eine Tabelle plus LinkedIn-Suche tun würde.

Wann NICHT einsetzen

  • Tier-1-Named-Account-ABM. Manuell aufgebaute Listen für 25–50 strategische Accounts umfassen Customer-Success- und Exec-Input, den der Skill nicht modellieren kann. Verwenden Sie das für Tier-2- und Tier-3-Outbound; die Varianz der Lookalike-Schleife ist zu hoch für die Tier-1-Auswahl.
  • Auto-Loading in Outbound-Sequenzen. Der Output ist ein geordneter Entwurf. Der Skill schreibt absichtlich in eine Clay-Tabelle und produziert einen Markdown-Report, sodass ein AE oder SDR ihn ansehen muss, bevor irgendetwas gesendet wird. Wenn Sie den Output in einen Sequenz-Trigger verdrahten, verwenden Sie das falsch.
  • Re-Scoring von Accounts, die bereits in Ihrem CRM sind. Verwenden Sie ein CRM-natives Intent-Tool dafür. Dieser Skill schreibt netto-neue Kandidaten; er rankt keine bekannten neu.
  • Scoring auf Protected-Class-Proxies. Gründergeschlecht, Gründer-Ethnizität, Alma Mater, Namensherkunft — nichts davon gehört in das Rubric. Die Referenz-Rubric-Datei listet auf, welche Dimensionen erlaubt sind; fügen Sie keine anderen hinzu.
  • Seed-Listen unter acht Accounts. Der Skill verweigert, unter acht gültigen Seeds fortzufahren, weil die Signatur-Extraktion auf einer kleineren Basis unzuverlässig ist. Wenn Sie nur fünf Wins haben, bauen Sie die Liste manuell auf und kommen Sie zurück, wenn Sie mehr haben.

Einrichtung

Das Bundle liegt unter apps/web/public/artifacts/icp-account-list-builder-clay/ und enthält:

  • SKILL.md — die Claude-Skill-Definition, die die Schleife orchestriert
  • references/1-icp-rubric-template.md — die firmografischen Gates und Signal-Gewichtungen, die Sie für Ihr Team ausfüllen
  • references/2-signal-source-matrix.md — welche öffentlichen Quellen als primär vs. korroborierend zählen und welche explizit nicht erlaubt sind
  • references/3-exclusion-criteria.md — gesperrte Domains, Mutterkonzerne und firmografische Muster, die niemals im Output erscheinen dürfen

Die Einrichtung dauert beim ersten Mal ungefähr 45 Minuten und bei jeder Auffrischung 5 Minuten.

  1. Skill installieren. Legen Sie SKILL.md in Ihr Claude Skills-Verzeichnis (oder laden Sie es über Claude Code mit /skill load). Füllen Sie references/1-icp-rubric-template.md mit Ihren echten firmografischen Gates, technografischen Signalen und Signal-Gewichtungen aus. Füllen Sie references/3-exclusion-criteria.md aus einem frischen CRM-Export von Kunden, aktiven Opportunities und Closed-Lost-Accounts der letzten 180 Tage.
  2. Seed-Liste vorbereiten. Ein CSV mit company_name, domain und why_we_won (zwei Sätze). Seeds über mehrere AEs, Segmente und Abschluss-Monate ziehen — der Skill warnt, wenn mehr als 60 % der Seeds einen einzelnen AE, ein Vertical oder einen Abschluss-Monat teilen, weil das eine Liste produziert, die wie das Territory eines Reps aussieht.
  3. Clay verbinden. Der Skill liest Ihren Clay-Workspace über API. Workspace-ID und API-Key in der lokalen Config des Skills setzen (commiten Sie diese niemals in das Bundle).
  4. Ersten Run. Rufen Sie den Skill mit Ihrem Seed-CSV und einem target_list_size von 100 auf. Der erste Run ist langsamer, weil das firmografische Universum ungefiltert ist; nachfolgende Runs gegen eine gespeicherte Clay-View sind schneller.
  5. Markdown-Report und Clay-Tabelle zusammen überprüfen. Der Report erklärt die Seed-Signatur, die Signal-Typ-Aufschlüsselung und die Ausschluss-Flag-Zählungen. Die Clay-Tabelle ist die Arbeitsoberfläche für den AE.

Was der Skill tatsächlich macht

Sechs Schritte, in Reihenfolge. Die Reihenfolge ist wichtig — das LLM-Scoring vor dem firmografischen Filter auszuführen, verschwendet Credits und zieht offensichtliche Misfits herein.

  1. Inputs laden und validieren. Seeds ohne why_we_won löschen und unter acht gültigen Seeds den Fortgang verweigern.
  2. Seed-Signatur extrahieren. Die Seeds und das ICP-Rubric an Claude senden, das eine strukturierte Signatur zurückgibt: Branchencodes, Mitarbeiterzahl-Band, Umsatz-Band, Geografie, Finanzierungsphase, technografische Marker und Intent-Marker. Die why_we_won-Notizen kodieren Signale, die keine Clay-Spalten sind („sie hatten eine Sicherheits- und Compliance-Seite”); deshalb ist ein LLM-Pass vor dem deterministischen Filter nötig.
  3. Deterministischen firmografischen Filter in Clay anwenden. Die Hard-Gates der Signatur in Clay-Filter übersetzen und sie zuerst ausführen, um das Universum auf ungefähr 500–3.000 Kandidaten einzuengen. Alles in der Ausschlussliste in diesem Schritt löschen. Das Tun vor dem Scoring reduziert die LLM-Kosten um ungefähr 30–100-fach, weil die meisten Ablehnungen offensichtliche firmografische Misfits sind, die kein Reasoning brauchen.
  4. Intent-Signale anreichern und korroborieren. Für jeden verbleibenden Kandidaten Clay bitten, Tech-Stack, Einstellungs-Deltas und Ankündigungen der letzten 90 Tage anzureichern, dann Claude um Per-Signal-Match-Scores mit Zitaten bitten. Jedes einzelne Intent-Signal erfordert ein primäres korroborierendes Signal — eine LinkedIn-Jobänderung plus eine Pressemitteilung, zum Beispiel. Single-Source-Intent-Claims werden mit 0 bewertet mit Begründung „nicht korroboriert” statt geraten.
  5. Ranken, deduplizieren und batch-schreiben nach Clay. Nach Gesamtscore sortieren, nach Mutterkonzern-Spalte deduplizieren und die Top-target_list_size-Zeilen in einem einzigen Batch in eine neue Clay-Tabelle schreiben. Per-Zeilen-Schreibvorgänge verbrauchen Credits und hinterlassen bei Unterbrechung inkonsistenten Status; Batch-Schreibvorgänge nicht.
  6. Output-Report produzieren. Ein Markdown-Dokument mit der Seed-Signatur oben, der geordneten Kandidatentabelle, einer Signal-Typ-Aufschlüsselung, Ausschluss-Flag-Zählungen und Run-Metadaten. Der Reviewer liest das, bevor er die Clay-Tabelle bearbeitet.

Kostenrealität

Die großen Kostenhebel sind Clay-Anreicherungs-Credits und Claude-Token. Grobe Budgets pro Run, verankert auf einem target_list_size von 100 gegen ein firmografisch gefiltertes Universum von 1.800–2.200 Kandidaten:

  • Claude-Token (Signatur-Extraktion + Per-Kandidaten-Scoring). Ungefähr 500K–700K Input-Token und 80K–120K Output-Token auf Claude Opus pro Run. Zu Opus 4.7-Listenpreisen landet das bei rund 9–14 $ pro Run. Auf Claude Sonnet ist dieselbe Schleife ungefähr 1,50–2,50 $ pro Run mit messbarem Qualitätsverlust beim Signatur-Extraktionsschritt (das Seed-Muster-Reasoning profitiert vom größeren Modell). Empfehlung: Opus für den Signatur-Schritt, Sonnet für den Per-Kandidaten-Scoring-Schritt.
  • Clay-Credits. Ungefähr 800–1.000 Anreicherungs-Credits pro Run für einen 100-Zeilen-Output, bei 2.000 Kandidaten, die in den Anreicherungsschritt eingehen. Zu Clay-Pro-Preisen sind das etwa 24–30 $ an Credit-Kosten pro Run; auf dem Explorer-Tier sind Credits enger und Sie sollten target_list_size auf 50 reduzieren oder härter vorfiltern.
  • Im Maßstab. Ein Team, das das wöchentlich pro Region ausführt (sagen wir vier AE-Pods), landet bei ungefähr 1.300–2.000 $ pro Monat kombiniert (150–200 $ für Claude, der Rest Clay-Credits). Das ist weit unter den Kosten eines einzelnen ZoomInfo-SalesOS-Seats und produziert eine frischere Liste, erfordert aber, dass das Rubric und die Ausschlussdatei aktuell gehalten werden — veraltete Inputs sind der Ort, wo die Kosten schiefgehen (Sie zahlen für Credits, um Accounts anzureichern, die Schritt 1 nie überstehen sollten).

Das dominante Kosten-Blowup-Muster ist das wiederholte Aufrufen des Skills mit einem losen firmografischen Gate und das Ansehen, wie das Kandidaten-Universum explodiert. Der Guard ist in Schritt 3: Wenn Clay mehr als 5.000 Kandidaten zurückgibt, strafft der Skill ein Band und läuft erneut, statt die gesamte Menge anzureichern.

Erfolgsmetrik

Die zu beobachtende Metrik ist die Rate, mit der AEs den Listenentwurf in ihr Arbeitset akzeptieren, ohne manuelle Überarbeitung. Ziel: 70 %+ akzeptiert (d. h. von 100 geordneten Kandidaten landen mindestens 70 in der Outbound-Queue von jemandem, ohne gelöscht oder neu gelabelt zu werden). Unter 50 % Akzeptanz ist das Rubric falsch, die Seed-Liste ist biased oder die Ausschlussdatei ist veraltet — diagnostizieren Sie in dieser Reihenfolge.

Sekundär: Meeting-Buchungsrate auf den akzeptierten Accounts im Vergleich zur Baseline-Outbound-Liste des Teams. Der Skill verdient seine Credit-Kosten, wenn diese Rate mindestens der Baseline entspricht; der Mehrwert liegt in der Reduzierung der Listenaufbauzeit, nicht unbedingt in einem sofortigen Konversions-Lift.

Vergleich mit Alternativen

  • vs. LinkedIn Sales Navigator + manuelle Filterung. Sales Nav ist das richtige Tool für manuell erstellte Tier-1-Listen und für individuelles Prospecting auf einem Kandidaten. Es ist das falsche Tool zum wöchentlichen Produzieren von 100 geordneten Lookalikes — die Saved-Search-Filter erfassen keine Intent-Signale, und die manuelle Filter-Zeit pro Liste sind ungefähr 3–5 Stunden eines SDR pro Woche. Dieser Skill ersetzt diese 3–5 Stunden durch eine 5-minütige Überprüfung eines geordneten Entwurfs.
  • vs. ZoomInfo SalesOS Intent. SalesOS ist ausgereift, hat gute Intent-Daten zu Enterprise-Accounts und ist die richtige Antwort, wenn Sie eine Enterprise-Motion haben und das Budget für 35.000–80.000 $ pro Jahr an Seats. Für eine Mid-Market-Motion bei einem kleineren Team ist dieser Skill plus Clay Pro ungefähr 80 % des Signals zu 5–10 % der Kosten, mit dem Trade-off, dass Sie das Rubric und die Ausschlussliste besitzen statt auf das Scoring eines Anbieters zu vertrauen.
  • vs. Apollo Living Data. Apollos Lookalike-Funktion ist in der Form diesem Skill am nächsten und ist einen Klick statt eine 45-minütige Einrichtung. Apollos Lookalike-Scoring ist undurchsichtig (Sie können die Signal-Gewichtungen nicht sehen oder überschreiben) und die Outputs neigen dazu, auf firmografische Ähnlichkeit zu überindizieren. Dieser Skill macht das Rubric und die Gewichtungen inspizierbar und erzwingt Per-Signal-Korroboration; der Preis ist die Einrichtungszeit und die Anforderung, die Referenzdateien aktuell zu halten.
  • vs. nichts (Status quo, AE baut die Liste). AE-gebaute Listen sind umfassend bei den bekannten Accounts des AE und schwach bei den Lookalikes, von denen der AE noch nichts gehört hat. Dieser Skill ist das Gegenteil — er ist schlecht bei benannten strategischen Accounts und gut bei der Aufzeigung der nächsten 100 Lookalikes. Das ehrliche Muster ist, beides parallel zu betreiben: AE besitzt die benannte Liste, der Skill produziert den Lookalike-Entwurf.

Watch-outs

  • Schlechte firmografische Daten aus öffentlichen Quellen. Aggregator-Mitarbeiterzahlen und Umsatzzahlen hinken der Realität 6–18 Monate hinterher und sind bei Wachstumsphasen-Unternehmen um 30–50 % falsch. Guard: Der Skill behandelt jede einzelne firmografische Quelle als richtungsweisend und erfordert Übereinstimmung über zwei unabhängige Quellen, bevor er ein hartes Gate anwendet. Konflikte erscheinen im Output-Report („LinkedIn sagt 120, BuiltWith sagt 380 — für manuelle Überprüfung geflaggt”) statt still aufgelöst zu werden.
  • Intent-Signal-Rauschen. Ein „hat einen VP of Sales eingestellt”-Signal aus LinkedIn allein fehlklassifiziert Beförderungen, Vertragsrollen und Titel-Inflation als Netto-Neueinstellungen. Guard: Schritt 4 erfordert ein primäres korroborierendes Signal (Pressemitteilung, zweiter-Winkel-LinkedIn-Beleg), bevor ein Intent-Signal über 0 bewertet wird; nicht korroborierte Claims werden mit 0 bewertet, mit dem aufgezeichneten Grund für das Audit.
  • Listen-Vergiftung durch veraltete Datenbanken. Manche Clay-Anreicherungsquellen tragen Zombie-Unternehmen — akquiriert, fusioniert oder erloschen — die Filter passieren, aber nicht kaufen können. Guard: Jeden Kandidaten löschen, dessen Website bei der Homepage-Prüfung eine 4xx/5xx zurückgibt, in den letzten 90 Tagen keine LinkedIn-Aktivität hat oder dessen Mutterkonzern-Feld zu einem bekannten Käufer in der Ausschlussdatei aufgelöst wird. Die Lösch-Zählung erscheint in den Run-Metadaten, damit der Operator einen Spike erkennen kann (ein Zeichen dafür, dass die Ausschlussdatei oder die Aggregator-Quelle sich verschlechtert).
  • Seed-Bias. Eine Seed-Liste von 10 Wins von einem AE in einem Vertical produziert eine Liste, die wie das Territory dieses AE aussieht. Guard: Der Skill warnt, wenn mehr als 60 % der Seeds denselben AE, dasselbe Vertical oder denselben Abschluss-Monat teilen, und bittet den Operator, den Seed zu verbreitern, bevor er fortfährt.
  • Filter-Overfit. Eine Signatur, die so eng ist, dass sie nur die 14 Seeds matched, produziert 0–30 Kandidaten und fühlt sich präzise an, ist aber nutzlos. Guard: Wenn Schritt 3 weniger als 200 Kandidaten zurückgibt, lockert der Skill die Mitarbeiterzahl- und Umsatz-Bänder um eine Stufe und läuft erneut, statt mit einem ausgehungerten Universum fortzufahren.
  • Veraltete Ausschlussdatei. Wenn der Kunden-Listen-Export zwei Monate alt ist, kann ein Kunde durchrutschen und in den Outbound geraten. Guard: Der Skill warnt im Output-Report, wenn last_refreshed in der Ausschlussdatei mehr als 14 Tage alt ist.

Stack

  • Clay (Pro oder höher) — Anreicherungs-Substrat, firmografischer Filter und Zieltabelle. Pro ist der praktische Boden für die Lookalike-Schleife.
  • Claude (Opus 4.7 für Signatur-Extraktion, Sonnet für Per-Kandidaten-Scoring) — Signatur-Reasoning über die Seed-why_we_won-Notizen und Per-Signal-Korroboration-Scoring mit Zitaten. Die Modell-Auswahl über die zwei Schritte aufzuteilen ist der Ort, wo der Kosten-Qualitäts-Trade am besten landet.
  • CRM (beliebig) — Quelle der Seed-Liste, Kundenliste, Opportunity-Liste und Closed-Lost-Liste, die die Ausschlussdatei speist. Der Skill liest das CRM nicht direkt; der Operator exportiert CSVs.
  • Outbound-Ziel (Outreach, Salesloft, Apollo, Custom) — wohin die überprüfte Liste nach AE-Akzeptanz geht. Der Skill stoppt bei der Clay-Tabelle aus Design-Gründen.

Files in this artifact

Download all (.zip)