ooligo
claude-skill

Strukturierte Churn-Ursachenanalyse mit Claude

Difficulty
Fortgeschritten
Setup time
30min
For
revops · csm
RevOps

Stack

Die meisten Churn-Postmortems werden einmal geschrieben, von niemandem gelesen und aggregieren sich zu „Champion ist gegangen, Produktlücke, Preisgestaltung” – weil das immer das Ergebnis ist, wenn man Freitextnotizen von CSMs am Quartalsende durchsucht. Dieser Workflow liefert eine Claude Skill, die einen abgewanderten Account entgegennimmt und eine strukturierte Ursachenanalyse produziert: eine 180-Tage-Zeitleiste, eine Zwei-Pass-Analyse mit Beleg-dann-Klassifizierung, eine Kategorisierung gegen eine feste Taxonomie und eine Präventionsempfehlung aus einer festen Bibliothek. Der Output ist konsistent genug über CSMs hinweg, dass RevOps ihn quartalsweise aggregieren kann, ohne irgendetwas neu zu kodieren.

Das Artifact-Bundle liegt unter apps/web/public/artifacts/churn-analysis-skill/. Es enthält SKILL.md (die Claude Skill selbst, softgewrappt, mit expliziten Abschnitten wann-aufrufen und Hinweise), references/1-churn-taxonomy.md (die 5–10 Kategorien, die Ihr Team zuweisen darf), references/2-prevention-action-library.md (das Menü der Präventionsaktionen, die die Skill empfehlen darf) und references/3-sample-output.md (die wörtliche Markdown-Form, damit Reviewer wissen, was sie erhalten).

Wann einsetzen

Führen Sie diese Skill einmal pro bestätigtem Churn aus, nachdem das Close-Lost- oder Non-Renewal-Ereignis im CRM erfasst wurde und der CSM mindestens 24 Stunden hatte, um seine abschließenden Notizen hinzuzufügen. Der Output ist ein Postmortem-Dokument, das der CSM überprüft, RevOps in einem gemeinsamen Notion- oder Drive-Ordner speichert und die Führungsebene am Quartalsende aggregiert, um Muster über Kategorien hinweg zu identifizieren.

Die richtige Population sind Mid-Market- und Enterprise-Accounts, bei denen der Vertragswert groß genug ist, um einen 30-Minuten-Review-Zyklus zu rechtfertigen, und bei denen die Zeitleistendaten reich genug für eine Analyse sind (CRM-Ereignisse, Health Scores, Support-Fälle, idealerweise Gong-Calls). Unter ~$25k ARR sinkt das Verhältnis von Analysekosten zu Erkenntnissen unter die Rentabilitätsschwelle.

Wann NICHT einsetzen

Überspringen Sie diese Skill in vier Fällen, von denen jeder eine andere richtige Antwort hat:

  • Vorausschauendes Risiko-Scoring auf gesunden Accounts. Verwenden Sie ein Health-Score-Modell oder eine separate Risk-Scoring-Skill. Diese postmortem-förmige Skill vorwärts zu betreiben – auf einem aktiven Account, der nicht abgewandert ist – verankert den CSM in einer Churn-Erzählung und verzerrt sein nächstes Gespräch.
  • Echtzeit-Churn-Vorhersage während eines Renewal-Zyklus. Gleiches Problem. Die Zwei-Pass-Zeitleistenanalyse hier setzt voraus, dass das Ergebnis fixiert ist; vorwärts angewendet erzeugt sie False-Confidence-Signale.
  • Win-Loss-Analyse auf abgebrochenen New-Logo-Deals. Diese benötigen eine andere Rahmung – Deal-Erzählung, Wettbewerber-Verdrängung, ICP-Fit – und eine andere Taxonomie. Verwenden Sie eine separate Win-Loss-Skill statt Churn-Kategorien auf einen Deal zu zwingen, der nie begonnen hat.
  • Einzelereignis-Erklärungen, die der CSM bereits kennt. Wenn Sie bereits wissen „der Champion ist gegangen und gab es keinen Ersatz”, bearbeiten Sie das CRM-Feld direkt. Diese Skill ist für die Fälle, in denen der CSM den Churn noch nicht klar zuordnen kann, oder wo das Team eine strukturierte Form für die Aggregation benötigt, unabhängig davon.

Setup

  1. Taxonomie definieren. Bearbeiten Sie references/1-churn-taxonomy.md mit den 5–10 Ursachen-Kategorien Ihres Teams. Die Vorlage liefert product-gap, champion-departure, pricing, consolidation, service-failure, adoption-failure, restructure und competitive-displacement. Verschärfen Sie die Beleganforderung für jeden Slug entsprechend der Strenge, die Ihr Team setzen möchte – diese Anforderungen sind es, die der Klassifikations-Pass durchsetzt. Beschränken Sie die Liste auf maximal 10; der Sinn ist Aggregation.
  2. Präventionsbibliothek befüllen. Bearbeiten Sie references/2-prevention-action-library.md. Die Skill ist auf die Auswahl einer Aktion aus dieser Datei pro Analyse beschränkt – sie kann keine neue erfinden. Die Vorlage umfasst die acht häufigsten (Sponsor-Änderungs-Erkennung, Health-Alerts, Eskalation bei Sev-1-Mustern usw.). Fügen Sie die Plays Ihres Teams hinzu.
  3. Skill installieren. Bundle in ~/.claude/skills/churn-analysis/ ablegen. HUBSPOT_TOKEN und GAINSIGHT_TOKEN als Umgebungsvariablen setzen. Falls Sie Gong nutzen, setzen Sie GONG_API_KEY, damit der Belegs-Pass Call-Transcripts abrufen kann; andernfalls läuft die Skill ohne Gong-Belege und vermerkt diese Lücke im Output.
  4. Churn ausführen. Aus Claude Code: analyze_churn(account_id="HUB-5523-ACME", churn_date="2026-04-15", taxonomy="churn-taxonomy"). Die Skill zieht die 180-Tage-Zeitleiste, führt die zwei Passes durch und gibt die strukturierte Analyse auf stdout aus (oder in ./out/churn-{account_id}-{YYYY-MM-DD}.md, wenn Sie CHURN_OUT_DIR setzen).
  5. An CSM-Review weiterleiten. Der Output endet mit einer Vier-Punkte-Checkliste, die der CSM ausfüllt: Bestätigen, dass die Analyse gelesen wurde, sachliche Fehler korrigieren, Klassifizierung bestätigen oder überstimmen (CSM-Urteil gewinnt) und Präventionsempfehlung akzeptieren/modifizieren/ablehnen mit Begründung.

Was die Skill tatsächlich tut

Vier Schritte in dieser Reihenfolge mit den Engineering-Entscheidungen, auf die das Bundle sich festlegt.

Schritt 1 — 180-Tage-Zeitleiste aufbauen. Health-Score-Deltas, Kontaktänderungen (mit LinkedIn-Abgangsdaten, wenn das CRM hinterherhinkt), Support-Fälle, Gong-Call-Zusammenfassungen, Produktnutzungsmetriken und QBR-Ergebnisse abrufen. Verankerung bei churn_date - 180 Tage. Wenn weniger als 3 Zeitleistenereignisse im 30 Tage unmittelbar vor churn_date existieren, gibt die Skill den wörtlichen Status unzureichende Daten – weniger als 3 Zeitleistenereignisse im 30-Tage-Pre-Churn-Fenster; manuelles CSM-Postmortem erforderlich zurück und stoppt. Kurze, dünne Zeitleisten laden zu Hindsight-Bias-Erzählungen ein, die überzeugend klingen, aber einer Überprüfung nicht standhalten.

Schritt 2 — Belegs-Pass. Ein erster Claude-Pass, der NUR Belege extrahiert: wörtliche Zitate, Ticket-Auszüge, Metrik-Deltas mit ihrer Quelle (CRM, Gainsight, Zendesk, Gong) und Datum. Keine Klassifizierung, keine Präventionsempfehlung. Der Output ist eine flache Liste von Belegen, die als Zwischenartefakt gehalten wird.

Schritt 3 — Klassifikations-Pass. Ein zweiter Claude-Pass, der die Belegsliste und die Taxonomie und nichts anderes erhält. Das Zwei-Pass-Design ist die explizite Engineering-Entscheidung: Ein Single-Pass-Modell vermischt „was passiert ist” mit „welche Kategorie das ist”, was die Belegsauswahl in Richtung der Kategorie verzerrt, die das Modell bereits vermutet. Den Klassifikations-Pass zu zwingen, von einer eingefrorenen Belegsliste aus zu arbeiten, ist der Schutz dagegen. Der Pass weist eine primäre Kategorie und bis zu zwei beitragende Kategorien zu – strikt aus der Taxonomie, keine neuen Labels – und zitiert die Belegzeilen, die jede Zuweisung unterstützen. Wenn keine Kategorie 3 Belege überschreitet, wird die primäre zu insufficient-evidence.

Schritt 4 — Präventionsempfehlung. Präventions-Aktionsbibliothek lesen. EINE Aktion auswählen, die, wenn sie 60 Tage vor dem Churn-Datum in Kraft gewesen wäre, die primäre Ursache als überwachbares Signal aufgezeigt hätte. Die Skill kann keine neue Aktion erfinden – wenn kein Bibliothekseintrag passt, gibt sie no library match — prevention action requires human design zurück, und ein Mensch erweitert die Bibliothek bewusst.

Das Zwei-Pass-Schema und die Bibliotheksbeschränkung sind die Teile, die zählen. Die meisten Ad-hoc-Churn-Analysen scheitern nicht daran, dass das Modell nicht über Belege nachdenken kann – sie scheitern, weil das Modell erlaubt wird, über Belege, Kategorie und Empfehlung in einem Atemzug nachzudenken, was die plausibel klingende Erzählung gewinnen lässt, unabhängig davon, wie dünn sie ist.

Kostenrealität

Eine einzelne Analyse läuft ~12k Input-Tokens (180-Tage-Zeitleiste plus Referenzdateien plus CSM-Notizen) und ~3k Output-Tokens. Auf Claude Sonnet landet das bei rund $0,05 pro Analyse. Auf Opus bei ~$0,30. Ein Team, das 40 Churns pro Quartal ausführt, zahlt $2 bis $12 pro Quartal an Modellkosten.

Die Zeitrechnung ist die interessantere Zahl. Ein CSM-geschriebenes Postmortem dauert 45–90 Minuten für einen bedeutsamen Account und wird bei kleineren Accounts vollständig übersprungen. Die Skill produziert in ~3 Minuten einen überprüfbaren Entwurf; die CSM-Review dauert ~15 Minuten. Netto: ~30 Minuten gespart pro Analyse, plus Abdeckung erstreckt sich auf Accounts, die zuvor gar kein Postmortem erhalten haben. Für ein Team von 8 CSMs, das 40 Churns pro Quartal bearbeitet, sind das rund 20 Stunden CSM-Zeit pro Quartal eingespart, plus ~2x die Postmortem-Abdeckung.

Die Kosten, die nicht auf der Rechnung erscheinen, sind die Taxonomie-und-Bibliotheks-Kurationsarbeit: Erwarten Sie 4–6 Stunden anfänglich, um beide Referenzdateien mit team-spezifischen Einträgen zu befüllen, dann ~1 Stunde pro Quartal, um insufficient-evidence-Fälle zu überprüfen und zu entscheiden, ob eine der Dateien erweitert werden soll. Überspringen Sie die Kuration, und die Skill produziert generischen Output, der sich schlecht aggregieren lässt.

Erfolgsmetrik

Die quartalsweise zu beobachtende Aggregat-Metrik: Prozentsatz der Churns mit einer verteidigbaren kategorisierten Ursache, die der CSM bei der Überprüfung nicht überstimmt hat. Ziel: 70–80 % im Steady State. Über 90 % deutet darauf hin, dass die Taxonomie zu nachsichtig geworden ist (zu viele Kategorien, zu lockere Beleganforderungen) – Claude findet für alles ein Label, weil die Buckets weit sind. Unter 60 % deutet darauf hin, dass die Zeitleistendaten zu dünn sind oder die Taxonomie nicht den tatsächlichen Churn-Formen entspricht, die das Team sieht.

Die diagnostische Gegenkennzahl: Prozentsatz der insufficient-evidence- und no library match-Rückgaben. Das sind keine Fehlschläge – das ist die Skill, die ehrlich ist. Ein Aufwärtstrend bedeutet Instrumentierungslücken (mehr Accounts mit dünnen Zeitleisten) oder Bibliothekslücken (mehr Churn-Formen, für die das Team noch kein Präventions-Play kodiert hat). Beide sind nützliche Signale zum bewussten Handeln.

Vergleich mit Alternativen

  • vs. Gainsight-Churn-Dashboards. Gainsight ist ausgezeichnet auf der deskriptiven Ebene – Health Scores, Zeitleistenereignisse, was-wann-passiert-ist. Es ist schwach auf der analytischen Ebene: Belege aus unstrukturierten Gong-Calls und CSM-Notizen extrahieren, dann gegen eine Team-Taxonomie klassifizieren. Die Skill ersetzt Gainsight nicht; sie konsumiert Gainsight-Daten und fügt die strukturierte Klassifizierungs-Ebene hinzu, die Gainsight nativ nicht produziert.
  • vs. manueller CSM-geschriebener Postmortems. Der aktuelle Standard für die meisten Teams. Höhere Qualität pro Postmortem, wenn der CSM engagiert ist, aber inkonsistent über CSMs hinweg, häufig bei kleineren Accounts übersprungen und nutzlos für die quartalsweise Aggregation, weil die Freitext-Form jedes CSMs leicht unterschiedlich ist. Die Skill produziert einen Entwurf, der konsistent genug für die Aggregation ist; CSM-Review hält die Qualitätsstandarde.
  • vs. Catalyst, ChurnZero und anderen CS-Plattformen mit eingebauten Postmortem-Flows. Diese liefern strukturierte Vorlagen, die der CSM ausfüllt. Sie lösen das Konsistenzproblem, aber nicht das Belegs-Extraktions-Problem – der CSM muss immer noch 180 Tage Calls und Notizen selbst lesen. Die Skill erledigt das Lesen; der CSM erledigt das Urteilen.

Die Skill ist am besten für Teams geeignet, die bereits Gainsight oder gleichwertige Zeitleisten-Instrumentierung haben, die strukturierte Aggregations-Eigenschaft wünschen und die Disziplin haben, die Taxonomie- und Bibliotheksdateien zu pflegen. Teams ohne Zeitleisten-Instrumentierung sollten das zuerst beheben; die Skill ist nachgelagert zu den Daten.

Wichtige Hinweise

  • Hindsight-Bias. Es ist trivial, nach der Tatsache eine saubere Erzählung zu konstruieren, besonders mit einer 180-Tage-Zeitleiste. Guard: Der Belegs-Pass (Schritt 2) ist strukturell vom Klassifikations-Pass (Schritt 3) getrennt, und der Klassifikations-Pass weigert sich, eine Kategorie ohne mindestens 3 Belegzeilen zuzuweisen, die explizit Datum und Quelle zitieren. Der unzureichende Daten-Kurzschluss am Ende von Schritt 1 ist der zweite Guard. CSM-Urteil gewinnt bei der Überprüfung, und die Überstimmung wird aufgezeichnet.
  • Taxonomie-Creep. Die Versuchung nach jeder Analyse ist es, eine neue Kategorie hinzuzufügen, die den einzigartigen Charakter dieses Churns erfasst. Guard: Der Klassifikations-Pass ist auf die bestehende Taxonomiedatei beschränkt und lehnt neue Labels ab – die Skill gibt insufficient-evidence zurück statt eine neue Kategorie zu prägen. Neue Kategorien erfordern eine bewusste Bearbeitung von references/1-churn-taxonomy.md außerhalb der Skill, mit drei historischen Churns, die gepasst hätten, bevor sie hinzugefügt werden.
  • Champion-Departure-Überattribuierung. „Champion ist gegangen” ist die einfachste Erzählung und die am meisten überstrapazierte Kategorie in unbeeinflussten CSM-Postmortems. Guard: Der champion-departure-Slug erfordert entweder ein LinkedIn-Abgangsdatum ODER einen CRM-Kontaktänderungs-Datensatz, der innerhalb von 90 Tagen vor dem Churn datiert ist – der Klassifikations-Pass weist ihn nicht auf ein reines Gong-Signal hin zu.
  • Halluzinierte Zuordnung aus dünnen Daten. Kurze Zeitleisten laden zu überzeugender Fiktion ein. Guard: Das 30-Tage-Fenster / 3-Ereignis-Minimum am Ende von Schritt 1 schließt die Analyse mit unzureichende Daten kurz, statt einen polierten Output zu produzieren, der nicht verdient ist. Dieser Guard löst absichtlich öfter aus als sich angenehm anfühlt – das ist das Signal, dass die Zeitleisten-Instrumentierung Arbeit braucht, nicht dass der Guard zu streng ist.
  • Präventionsempfehlung als Kreativitätsübung. Jede maßgeschneiderte Empfehlung macht das quartalsweise Aggregat nutzlos. Guard: Schritt 4 wählt aus der festen Bibliotheksdatei und weigert sich zu erfinden. Wenn kein Eintrag passt, sagt die Skill es und ein Mensch entwirft den neuen Eintrag bewusst, mit einem mechanisch erkennbaren Auslöser und einem einzigen benannten Eigentümer.

Stack

  • HubSpot — Churn-Datensatz, Kontakthistorie, Deal-Close-Lost-Gründe
  • Gainsight — Health Scores, Zeitleistenereignisse, Success-Plan-Meilensteine
  • Gong — Call-Transcripts für den Belegs-Pass (optional, aber verbessert die Ausgabequalität wesentlich)
  • Claude — Zeitleisten-Synthese, Belegs-Extraktion, Klassifizierung gegen Taxonomie
  • Notion oder Google Drive — Speicher für die überprüften Analysen, quartalsweise organisiert für die Aggregationsüberprüfung

Files in this artifact

Download all (.zip)