ooligo
claude-skill

First-Pass NDA/MSA-Redlining mit Claude

Difficulty
Fortgeschritten
Setup time
45min
For
legal-ops · in-house-counsel · contract-manager
Legal Ops

Stack

Eine Claude Skill, die ein NDA oder MSA einer Gegenpartei in .docx-Form entgegennimmt, jede Klausel gegen das Rot/Gelb/Grün-Playbook Ihrer Firma klassifiziert, Redlines aus einer vorab erstellten Fallback-Bibliothek vorschlägt und alles außerhalb des Playbooks zur menschlichen Überprüfung durch einen Anwalt markiert. Die Skill produziert ein Word-Dokument mit nachverfolgten Änderungen sowie eine einseitige Abweichungszusammenfassung, die das Inhouse-Team in den Deal-Channel einfügen kann. Laden Sie das Playbook einmalig ein; führen Sie es dann für jeden eingehenden Vertrag aus.

Wann einsetzen

Verwenden Sie diese Skill, wenn ein eingehendes NDA, MSA, DPA, Bestellformular oder eine Lieferantenvereinbarung eingeht und Sie den First-Pass-Redline richtlinienbasiert vornehmen möchten, bevor ein Anwalt die Datei öffnet. Die Wirtschaftlichkeit funktioniert, wenn das Vertragsvolumen hoch genug ist, dass die Pro-Deal-Zeitersparnis kumuliert – typischerweise ein Legal-Ops-Team, das 30+ eingehende Verträge pro Monat auf Tier-2-3-Ebene einer Vertragsüberprüfungs-SOP bearbeitet. Darunter überwiegen die Playbook-Wartungsaufwände die Ersparnis.

Die Skill setzt voraus, dass Sie bereits ein dokumentiertes Playbook haben (siehe das NDA-Playbook und das MSA-Redlining-Rubrik für die erwartete Struktur). Wenn das Playbook noch nicht existiert, erstellen Sie es zuerst – die Skill verstärkt die Richtlinie, erfindet sie nicht.

Wann NICHT einsetzen

  • Finale Genehmigung oder Zurücksenden des Redlines an die Gegenpartei. Die Skill schlägt vor; ein benannter menschlicher Anwalt überprüft jede Änderung, bevor sie das Haus verlässt. Der Output ist ein Vorsprung, keine Genehmigung.
  • Bearbeitungen an Ihrer eigenen Vertragsvorlage als Source of Truth. Vorlagenänderungen sind Playbook-Updates – bearbeiten Sie references/1-playbook-template.md direkt, damit jeder zukünftige Durchlauf die neue Position übernimmt. Führen Sie die Skill nicht auf Ihrer eigenen Vorlage „zur Aktualisierung” aus.
  • Hochgradig individuelle Instrumente. M&A-Hauptverträge, komplexe IP-Abtretungen, regulierte branchenspezifische Side Letters – das Playbook kann diese nicht kodieren. Die Skill markiert jede Klausel als außerhalb der Richtlinie und verbrennt dabei Token.
  • Final-Round-Verhandlungs-Entwürfe. In Runde 3 sind die Redlines deal-spezifische Zugeständnisse, die das Playbook nicht antizipieren kann. Die Skill ist nur für die Ausgangsposition.
  • Privilegiertes Arbeitsergebnis, das über einen Nicht-Tier-A-KI-Anbieter geleitet wird. Wenn die KI-Richtlinie Ihrer Firma das Modell ausschließt, das die Skill aufrufen würde, eskalieren Sie zu einem menschlichen Anwalt statt die Richtlinie zu lockern. Privileg ist die Geschwindigkeit nicht wert.

Setup

  1. Bundle einspielen. Den Inhalt von apps/web/public/artifacts/contract-redline-claude-skill/ in Ihr Claude Code Skills-Verzeichnis (~/.claude/skills/contract-redline/) platzieren oder den Ordner in ein Claude.ai-Projekt hochladen. Die Skill stellt einen Einstiegspunkt bereit, der einen übergebenen Vertrag klassifiziert und redlint.
  2. Vorlagen ersetzen. Das Bundle liefert drei Vorlagendateien in references/. Ersetzen Sie jede durch den tatsächlichen Inhalt Ihrer Firma vor dem ersten Durchlauf:
    • references/1-playbook-template.md — Ihre Rot/Gelb/Grün-Positionen pro Klauseltyp.
    • references/2-fallback-positions.md — von der Rechtsberatung genehmigte Drop-in-Absätze, die die Skill verbatim einfügt (kein Paraphrasieren).
    • references/3-escalation-criteria.md — die Regeln, die entscheiden, wann eine Klausel an einen Menschen geleitet wird statt einen vorgeschlagenen Redline zu erhalten. Wichtig: Hier listen Sie auch die KI-Anbieter auf, die Sie für Rechtsdokumente autorisieren – die Skill weigert sich anderweitig zu laufen.
  3. Auf einem bekannten Vertrag testen. Gegen einen Vertrag ausführen, den Sie bereits manuell redlint haben, und die Outputs vergleichen. Das Playbook abstimmen, wo sich die Positionen der Skill falsch anfühlen; die Fallback-Positions-Absätze abstimmen, wo die Formulierung gestelzt wirkt. Zwei oder drei Iterationen bringen zu einer guten Baseline.
  4. Mit Intake verdrahten. Wenn ein neuer Vertrag über Ironclad-Intake oder E-Mail ankommt, legt der zugewiesene Reviewer die .docx in die Skill und erhält den redlinteten Output in etwa 60 Sekunden zurück. Der Reviewer öffnet die .docx in Word, geht die nachverfolgten Änderungen durch (jede trägt einen Word-Kommentar, der die übereinstimmende Playbook-Abschnitts-ID zitiert) und sendet nur nach eigener Überprüfung an die Gegenpartei zurück.

Was die Skill tatsächlich tut

Die Skill führt vier Unteraufgaben der Reihe nach aus; sie sind nicht parallelisiert, weil jeder Schritt vom Kontext des vorherigen abhängt. Die vollständige Methode mit Engineering-Begründung lebt in apps/web/public/artifacts/contract-redline-claude-skill/SKILL.md. Kurz:

  1. Vertragstyp klassifizieren. NDA (gegenseitig / einseitig), MSA, DPA, Bestellformular, Lieferantenvereinbarung oder „sonstige”. Wenn „sonstige”, stoppen und einen einzelnen Eskalationsblock ausgeben. Die Skill versucht keine Redlines bei Vertragstypen, die das Playbook nicht adressiert – das ist der häufigste Silent-Drift-Fehlerfall.
  2. Klausel-für-Klausel-Klassifikation. Den Vertrag nach Überschrift aufteilen (auf nummeriertes-Abschnitt-Parsing zurückfallen). Für jede Klausel einem Playbook-Eintrag durch Klauseltyp-Heuristik zuordnen und als grün (akzeptabel), gelb (Fallback-Substitution), rot (Muss-Umschreibung) oder außerhalb-des-Playbooks (eskalieren) klassifizieren. Jede Klassifikation zitiert die übereinstimmende Playbook-Abschnitts-ID im Output, damit der Reviewer Entscheidungen in Sekunden auditieren kann.
  3. Redline-Vorschlag. Für jede gelbe Klausel den entsprechenden Fallback-Absatz aus references/2-fallback-positions.md verbatim einfügen. Für jede rote Klausel den Muss-Absatz einfügen. Warum vorab erstellte Absätze statt freier Umformulierungen: Die Rechtsberatung hat diese Sprache bereits überprüft. Freie Umformulierungen würden bei jedem Durchlauf neue Formulierungen einführen und den Reviewer zwingen, jeden Fallback von Grund auf neu zu lesen – wodurch die Zeitersparnis zunichte gemacht wird.
  4. Eskalations-Markierung. Jede außerhalb-des-Playbooks-Klausel und jede Klausel, die einer Regel in references/3-escalation-criteria.md entspricht, erhält einen Eskalationsblock statt eines Redlines. Die Skill rät nicht.

Kostenrealität

Token-Kosten pro Vertrag hängen von Länge und Klauselanzahl ab. Konkrete Zahlen:

  • Typisches NDA (3–5 Seiten, ~2k Wörter). Input ~6k Tokens (Vertrag + Playbook + Fallback-Bibliothek + Eskalationskriterien), Output ~4k Tokens (Begründung pro Klausel + Zusammenfassung). Zu Claude Sonnet 4.5 Preisen ($3 / MTok Input, $15 / MTok Output) rund $0,08 pro Vertrag.
  • Typisches MSA (15–25 Seiten, ~10k Wörter). Input ~14k Tokens, Output ~10k Tokens. Rund $0,20 pro Vertrag.
  • Monatliche Durchlaufrate bei 100 Verträgen (50 NDAs + 50 MSAs). Rund $14 in Token-Kosten – eine Größenordnung kleiner als die Menschenzeit-Ersparnis (eine Paralegal-Stunde bei $90/Std. voll belastet deckt ~640 Verträge der Skill-Kosten).

Die echten Kosten sind die Playbook-Wartung: Die Rechtsberatung muss references/1-playbook-template.md und references/2-fallback-positions.md aktuell halten. Budget zwei Stunden Senior-Counsel-Zeit pro Quartal für die Aktualisierung beider, plus eine Stunde pro Quartal, um Eskalationsmuster zu triagieren und wiederkehrende außerhalb-des-Playbooks-Klauseln ins Playbook zurückzufalten.

Erfolgsmetrik

Zwei gemeinsam beobachtete Metriken sagen Ihnen, ob die Skill ihr Geld wert ist:

  • Zykluszeit-Reduktion bei First-Pass-Redlines. Baseline: mittlere Zeit von Vertragseingang bis „First-Pass-Redline bereit für menschliche Überprüfung”. Ziel: Median um 60–75 % reduzieren. Ein Team mit einer Baseline von 90 Minuten pro First-Pass-Redline sollte bei 25–35 Minuten landen (die Skill produziert in 60 Sekunden; die menschliche Überprüfung nimmt den Rest).
  • % der Klauseln, die zur menschlichen Überprüfung markiert werden. Zielband: 15–25 % der Klauseln pro Vertrag. Unter 10 % bedeutet, das Playbook ist zu permissiv (die Skill stempelt Gelb-Zonen-Sprache als Grün) – das Rubrik verschärfen. Über 35 % bedeutet, das Playbook deckt nicht genug Klauseltypen ab – es erweitern.

Wenn die Zykluszeit-Metrik innerhalb von 30 Tagen nach dem Go-Live nicht sinkt, liegt der Engpass beim menschlichen Überprüfungs-Schritt, nicht beim Redlining. Häufige Ursache: Der Reviewer vertraut den Begründungs-Strings nicht und liest jede Klausel von Grund auf neu. Beheben Sie das, indem Sie die Begründungs-Strings Playbook-Abschnitts-IDs zitieren lassen (was die Skill standardmäßig tut) und Reviewer schulen, die IDs zu scannen.

Vergleich mit Alternativen

Die Entscheidung liegt zwischen dieser Skill und einem Anbieter-eigenen Spezialisten:

  • vs. LawGeex oder BlackBoiler. Das sind Anbieter-SaaS-Produkte mit auf Millionen von Verträgen vortrainierten Modellen. Sie gewinnen bei Tier-1-NDAs (Auto-Genehmigung gegen ein Standard-Playbook) und bei Deployment-Geschwindigkeit, wenn Sie noch kein dokumentiertes Playbook haben. Sie verlieren, wenn Ihr Playbook ungewöhnliche Positionen hat, die der Anbieter nicht gesehen hat, wenn Token-Level-Transparenz wichtig ist (die Skill zitiert Ihre Playbook-Abschnitts-IDs; Anbieter zitieren die Konfidenz ihres eigenen Modells) und beim Preis (Anbieter-Seats kosten $500–2k/Seat/Monat vs. die ~$0,20/Vertrag-Token-Kosten der Skill plus Paralegal-Zeit-Amortisierung).
  • vs. Ironclad AI Assist oder Spellbook. In CLM / Word eingebettet; bessere UX innerhalb des Tools, das Sie bereits verwenden; schwächer beim Durchsetzen Ihres spezifischen Playbooks, weil ihr Grounding teilweise das allgemeine Training des Anbieters ist. Wählen Sie diese, wenn Sie null Deployment-Aufwand wollen und keine Zitations-zu-Abschnitts-ID-Auditierbarkeit benötigen.
  • vs. manuellen Paralegal-gesteuerten Redlines. Der Status quo bei den meisten Firmen. Höhere Qualität bei neuartigen Klauseln (Menschen erkennen ungewöhnliche Sprache besser), viel höhere Kosten pro Vertrag, langsamere Durchlaufzeit. Die Skill ist kein Ersatz für den Paralegal – sie verlagert die Zeit des Paralegals vom Tippen zum Urteilen.

Der Claude-Skill-Sweet-Spot ist der hochvolumige Mid-Stakes-Vertrag, bei dem das Inhouse-Team möchte, dass KI den First Pass erledigt, aber menschliche Überprüfung bei jedem Output erwartet und verlangt, dass jeder Redline auf eine dokumentierte Playbook-Position zurückgeführt werden kann. Wenn Sie nicht auf den Playbook-Eintrag hinter einem Redline zeigen können, wird der Redline nicht versandt.

Wichtige Hinweise

  • Stiller Playbook-Drift. Ein Monate veraltetes Playbook produziert sichere Redlines aus veralteten Positionen. Guard: Jeder Output schreibt das last_reviewed-Datum des Playbooks in den Zusammenfassungs-Header. Reviewer lehnt jeden Output ab, bei dem das Datum älter als 90 Tage ist, und das Playbook wird vor dem erneuten Ausführen aktualisiert.
  • Neuartige Klausel verfehlt wegen Heuristik-Fehlanpassung. Überschriften reimen sich: „non-solicitation” vs. „non-compete”, „Limitation of Liability” vs. „Cap on Damages”. Guard: Jede Klausel-Klassifikation zitiert die übereinstimmende Playbook-Abschnitts-ID im Output. Reviewer scannt die zitierten IDs und korrigiert Fehlanpassungen bevor der Redline herausgeht. Ohne das Zitat kann der Reviewer nicht erkennen, dass die Skill falsch zugeordnet hat.
  • Privileg-Leck über Nicht-Tier-A-Anbieter. Gegenpartei-Entwürfe enthalten anwaltlich-mandantschaftlich-privilegierten Kontext, insbesondere in DPAs und Side Letters. Guard: Die Skill weigert sich zu laufen, wenn das konfigurierte Modell nicht in der Erlaubte-Anbieter-Liste oben in references/3-escalation-criteria.md erscheint. Harte Vorbedingung; kein CLI-Flag umgeht sie.
  • Playbook-Qualität ist alles. Ein vages Playbook produziert vage Redlines. Positionen explizit kodieren, mit Beispiel-Fallback-Sprache in references/2-fallback-positions.md, nicht abstrakte Prinzipien in references/1-playbook-template.md allein.
  • Kein Ersatz für rechtliche Überprüfung. Jeder Redline-Output wird von Menschen überprüft, bevor er an die Gegenpartei zurückgeht. Die Skill spart Zeit beim ersten Entwurf, nicht beim Urteilsaufruf.

Stack

  • Claude — Skill-Laufzeit (Claude Code oder Claude.ai mit aktivierten Custom Skills).
  • Ironclad — CLM für Intake und Speicherung der resultierenden redlinteten Version. Optional, aber die typische Paarung für ein Legal-Ops-Team, das das im Volumen betreibt.
  • Microsoft Word — zum Öffnen der redlinteten .docx. Native nachverfolgte Änderungen tragen die Begründungs-Strings als Word-Kommentare.

Files in this artifact

Download all (.zip)