ooligo
claude-skill

Digest hebdomadaire de recrutement pour l'équipe dirigeante avec Claude

Difficulty
débutant
Setup time
30min
For
recruiting-leader · head-of-people · talent-acquisition
Recruiting & TA

Stack

Un Claude Skill qui extrait l’activité de recrutement du lundi matin depuis l’ATSAshby, Greenhouse, ou Lever — compare avec l’instantané du lundi précédent, exécute une passe déterministe de détection d’anomalies dans l’entonnoir, superpose le ROI des canaux de sourcing lorsque des données budgétaires sont fournies, et produit un digest d’une page pour le Head of Talent. Le digest nomme les trois anomalies d’entonnoir les plus prioritaires, les rôles principaux détaillés par santé par étape, et une seule demande recommandée pour l’équipe de direction cette semaine. Remplace l’email de statut de recrutement du vendredi après-midi que personne n’apprécie à rédiger ou à lire, tout en évitant délibérément le mode d’échec du classement individuel dans lequel les digests ops glissent quand personne ne s’en prémunit.

Quand utiliser ce skill

  • Votre organisation de recrutement tient une cadence de direction hebdomadaire — digest du lundi, récapitulatif du vendredi, ou tout équivalent à créneau fixe. Le skill est conçu pour le cas récurrent ; les instantanés exec ponctuels ne justifient pas la configuration.
  • Vous pouvez produire un nouvel instantané ATS chaque semaine. Les exports CSV depuis Ashby, Greenhouse ou Lever conviennent ; le skill compare des lignes structurées, il n’a pas besoin d’intégration API.
  • Vous avez au moins 6 semaines d’instantanés précédents accumulés. Le seuil d’anomalie d’entonnoir utilise une moyenne glissante sur 6 semaines par rôle + étape ; en dessous de 6 semaines, le skill supprime les signaux d’anomalie plutôt que de s’activer sur de petits échantillons.
  • Un recruteur, un responsable recruiting-ops ou le Head of Talent révise chaque digest avant qu’il n’aille où que ce soit. Le skill écrit digest.md sur disque et s’arrête.
  • Votre liste de priorité de rôles et vos SLA d’étape sont documentés (ou vous êtes prêt à les documenter une fois). Le references/2-role-priority-list-template.md du bundle montre la forme ; si vous ne pouvez pas le remplir, le skill utilise l’ordre alphabétique par défaut, ce qui est faux chaque semaine.

Quand NE PAS utiliser ce skill

  • Publication automatique sans révision d’un recruteur. Le skill écrit un fichier Markdown. Il n’y a aucune action de publication Slack ou d’envoi d’email définie nulle part dans le bundle, et en ajouter une est une expansion de périmètre délibérée. Les contenus sensibles — recherches exec privilégiées, recherches de remplacement d’employé en poste, cas de performance en cours — nécessitent une lecture humaine avant d’aller dans un canal de direction. Sauter cette étape produit un drame organisationnel dans les quatre semaines.
  • Rapports destinés aux clients. Les métriques de pipeline, les décomptes de candidats et les diagnostics de rôles bloqués sont internes. Les packs pour le conseil qui nécessitent des chiffres de recrutement doivent être rédigés séparément et assainis ; ne transmettez pas le digest dans tout ce qui quitte le Slack de l’équipe people.
  • Revues de performance individuelle. Le skill agrège par rôle, étape d’entonnoir et canal de sourcing. Il supprime délibérément les noms individuels de recruteurs et de sourcers du contexte du LLM (voir la passe de filtrage de biais dans apps/web/public/artifacts/weekly-recruiting-digest-skill/SKILL.md, étape 5). Confondre la santé du pipeline avec la performance individuelle est la façon dont un digest ops se transforme en outil d’évaluation de performance en coulisses, que la plupart des comités d’entreprise et plusieurs lois du travail d’États américains traitent comme une évaluation automatisée des travailleurs.
  • Rôles avec moins de 6 semaines d’historique de pipeline. La détection d’anomalies nécessite une baseline de moyenne glissante ; sur un rôle tout nouveau, le digest rapporte l’état sans signaux. Utilisez le détail par rôle pour ceux-ci mais ignorez le créneau d’anomalie vide.
  • Remplacement du rôle de coordinateur recruteur. Le coordinateur recruteur gère la planification, la communication avec les candidats, la logistique des panels et les parties relevant du jugement humain du digest. Le skill prend l’étape de synthèse, pas l’étape de coordination.

Configuration

  1. Déposez le bundle. Copiez apps/web/public/artifacts/weekly-recruiting-digest-skill/SKILL.md ainsi que le répertoire references/ dans votre répertoire de skills Claude Code ou votre configuration de Skills personnalisés claude.ai. Le skill est nommé weekly-recruiting-digest.
  2. Planifiez l’export d’instantanés. Configurez votre ATS pour déposer un export hebdomadaire dans un chemin connu — chaque dimanche soir pour un digest du lundi convient à la plupart des équipes. Les colonnes de schéma que le skill attend sont listées dans SKILL.md sous « Inputs » ; les colonnes manquantes arrêtent l’exécution avec une erreur de schéma plutôt que de se dégrader silencieusement.
  3. Remplissez la liste de priorité de rôles. Copiez references/2-role-priority-list-template.md dans votre propre dépôt et remplacez les exemples de lignes par vos vrais postes ouverts. Définissez priority, target_time_to_fill_days, stage_slas_days et confidentiality par rôle. Le responsable recruiting-ops édite cela chaque semaine ; le skill capture son SHA-256 dans les métadonnées d’exécution afin que les différences hebdomadaires soient visibles dans les rétrospectives.
  4. Optionnellement, ajoutez des données de canal de sourcing. Si vous voulez la section ROI des sources, déposez le CSV de canaux selon le schéma dans references/3-source-channel-roi-definitions.md. S’il est absent, la section est omise, pas fabriquée. Le même fichier de définitions fixe le calcul du cost_per_qualified_applicant et du qualified_rate afin que les comparaisons semaine-sur-semaine restent honnêtes à mesure que les rapports de dépenses se stabilisent entre les semaines.
  5. Calibrez le format du digest. Éditez references/1-digest-format.md pour correspondre aux préférences d’audience du Head of Talent — vocabulaire de statut (RAG vs Sur la bonne voie / À risque / Bloqué), profondeur d’explication des anomalies et convention de formulation de la demande recommandée. L’ordre des sections structurelles et les en-têtes de colonnes ne changent pas ; uniquement la prose dans le modèle.
  6. Faites un essai à blanc sur deux instantanés précédents. Choisissez un lundi d’il y a deux semaines plus le lundi d’avant, exécutez le skill et comparez son digest à celui que votre équipe a réellement diffusé cette semaine-là. Les chiffres devraient être reproductibles ; l’interprétation narrative peut ne pas correspondre — ajustez les notes de préférences d’audience si elle s’éloigne.

Ce que le skill fait réellement

Six étapes, dans l’ordre. Les étapes 1 à 3 sont des comparaisons déterministes et des vérifications de seuil ; seule l’étape 6 utilise le LLM pour la synthèse narrative. L’ordre est délibéré — laisser un modèle improviser sur l’état brut du pipeline produit un digest qui se lit bien et qui est faux sur quels chiffres ont bougé.

  1. Valider les instantanés et charger la liste de priorité. Confirmer que le schéma correspond entre les instantanés courant et précédent. S’arrêter sur une colonne renommée plutôt que remapper silencieusement — le remapping silencieux est la raison pour laquelle les taux de conversion par étape bougent de 30 % en une semaine sans raison réelle.
  2. Comparaison de santé de pipeline par rôle. Pour chaque poste ouvert, calculer la variation nette du pipeline par étape, la conversion de cette semaine vs la moyenne glissante, le temps dans l’étape signalé par rapport au SLA de rôle, les jours ouverts vs le délai cible de remplissage. Ce sont des calculs arithmétiques, pas du LLM. Le choix de détailler par rôle plutôt qu’en agrégeant à l’échelle de l’organisation est intentionnel : un « taux de conversion de l’entonnoir engineering de 22 % » cache le fait que deux rôles backend senior sont à 8 % tandis que trois rôles junior sont à 35 %, ce qui est la forme exploitable.
  3. Détection d’anomalies d’entonnoir. Signaler une étape comme anormale quand la conversion est à plus de 2 écarts types de la moyenne glissante sur 6 semaines, quand plus de 30 % des candidats à une étape dépassent le SLA, ou quand la profondeur du haut de l’entonnoir sur un rôle critique chute de plus de 40 % semaine-sur-semaine. Limiter à 3 anomalies par digest ; plus transforme le digest en liste de surveillance que personne ne lit. Le seuil de 2 écarts types plutôt qu’un pourcentage fixe est ce qui empêche le skill de se déclencher sur le bruit normal des petits échantillons sur les rôles à faible volume. Voir les métriques d’entonnoir de recrutement pour les définitions de conversion sous-jacentes.
  4. ROI des canaux de sourcing (uniquement si des données ont été fournies). Calculer le coût-par-candidat-qualifié et le taux-qualifié par canal en utilisant les définitions fixes de references/3-source-channel-roi-definitions.md. Signaler tout canal dont le ratio a bougé de plus de 25 % pour que le responsable recruiting-ops vérifie l’attribution avant l’envoi. L’intérêt des définitions fixes est la reproductibilité — les chiffres last-touch bougent quand les valeurs source ATS sont renommées, et le digest ne doit pas présenter un changement de configuration comme un vrai signal budgétaire.
  5. Passe de filtrage de biais. Retirer les noms individuels de recruteurs, sourcers et hiring managers du contexte du LLM avant l’étape 6. Les agrégations par recruiter_id n’existent que comme vérifications de charge vs capacité (ce recruteur sur ce rôle tient 14 postes, la cible est 8), pas comme comparaisons inter-recruteurs. Retirer les noms du contexte est ce qui maintient de manière fiable le classement individuel hors de la sortie ; les instructions de prompt « ne pas classer les individus » ne sont pas suffisamment fiables seules.
  6. Rédiger le digest. Étape LLM. Prendre les sorties déterministes plus les préférences d’audience et rédiger selon le format dans references/1-digest-format.md. La narrative peut interpréter une baisse de conversion (« le créneau panel était indisponible pendant deux semaines ») uniquement si l’interprétation est dans les notes d’entrée ; sinon la ligne se lit « cause probable non dans les données pipeline — recruteur à confirmer ». Terminer par une seule « Demande recommandée » nommant audience, action et rôle(s) — ou le littéral « Aucune demande de direction cette semaine — le pipeline est sur la bonne voie » si les données ne le justifient pas. Ne jamais inventer une demande pour remplir le créneau.

Le schéma complet pour les entrées ATS, le format de sortie littéral et la justification du filtrage de biais se trouvent tous dans apps/web/public/artifacts/weekly-recruiting-digest-skill/SKILL.md.

Réalité des coûts

Par digest hebdomadaire, sur Claude Sonnet 4.5 :

  • Tokens LLM — typiquement 25 à 45k tokens d’entrée (deux instantanés résumés par les étapes déterministes + liste de priorité de rôles + CSV source + instructions du skill) et 2 à 4k tokens de sortie (le digest lui-même plus l’annexe). Sur Sonnet 4.5, cela donne environ $0,10 à 0,20 par digest. Une année complète de digests hebdomadaires représente $5 à 10 en coût de modèle. La dépense de modèle est un arrondi par rapport au temps économisé.
  • Temps recruiting-ops — le gain est ici, pas dans le coût de modèle. Rédiger à la main un digest hebdomadaire structuré depuis zéro — extraire l’ATS, calculer la conversion par rôle, scanner les violations de SLA, formater le tableau, rédiger la demande recommandée — représente 90 à 120 minutes pour un manager recruiting-ops qui connaît bien les données, davantage pour quelqu’un de plus récent. Réviser et éditer le brouillon du skill prend 15 à 25 minutes. C’est environ 60 à 90 minutes récupérées par semaine, soit une journée entière d’ops-headcount par trimestre.
  • Temps Head of Talent — le second gain. Un digest cohérent et structuré dans le même format chaque lundi se lit en 4 à 6 minutes ; un email de récapitulatif hebdomadaire en format libre prend 12 à 18 minutes (ou, plus souvent, est ignoré). La ligne de demande recommandée est celle sur laquelle le Head of Talent agit ; le reste est une référence pour la semaine.
  • Temps de configuration — 30 minutes pour déposer le bundle et remplir la liste de priorité de rôles si la liste de priorité existe déjà sous une forme quelconque (une page Notion, une feuille de calcul). Plus proche de 2 heures si la liste de priorité est entièrement nouvelle et que l’équipe doit s’aligner sur quels rôles sont critiques vs élevés. L’alignement est la partie la plus difficile ; le skill est la partie la plus facile.
  • Stockage des instantanés — trivial. Un export CSV hebdomadaire depuis Ashby ou Greenhouse est de l’ordre de 1 à 5 Mo. Une année d’instantanés fait moins de 250 Mo ; conservez-les dans un bucket S3 privé ou un dossier privé de dépôt.

Indicateur de succès

Suivez trois chiffres par trimestre, dans le tableau de bord ops de votre équipe :

  • Taux de lecture du digest. Quelle part des destinataires nommés ouvre le digest dans les 24 heures suivant l’envoi. Suivez dans votre outil email ou en ajoutant un pixel de suivi. En dessous de 70 %, le digest est trop long, trop générique ou arrive au mauvais moment — corrigez le format avant d’ajouter des sections.
  • Taux de réalisation des demandes recommandées. Quelle part des demandes recommandées hebdomadaires est mise en œuvre par l’équipe de direction dans la même semaine. En dessous de 50 %, les demandes sont vagues (réécrivez la convention de demande recommandée dans references/1-digest-format.md) ou trop petites pour être remontées (laissez le skill écrire « aucune demande cette semaine » plus souvent).
  • Temps de l’anomalie signalée à la remédiation. Quand une anomalie d’entonnoir apparaît dans le digest, combien de jours jusqu’à ce que la conversion ou le SLA sous-jacent se rétablisse. La métrique de débit que le digest est censé faire bouger. Observez cette tendance sur 6 à 8 semaines plutôt que semaine après semaine.

Comparaison avec les alternatives

  • vs Ashby Analytics dashboards — La gestion des rapports Ashby est excellente pour le responsable recruiting-ops qui veut filtrer et pivoter en direct. Le manque est la couche de synthèse : le Head of Talent ne veut pas un tableau de bord, il veut une page qui dit « ces trois choses se sont passées, voici la seule demande ». Choisissez Ashby Analytics si votre audience est l’équipe de recrutement elle-même ; choisissez ce skill si votre audience est la direction et que vous avez besoin que la synthèse soit rédigée pour eux chaque semaine. Les deux sont complémentaires, pas en compétition.
  • vs Datapeople — Datapeople est fort sur le scoring de biais des descriptions de poste et l’analyse de l’entonnoir entrant. Problème différent. Utilisez Datapeople en amont de l’entonnoir (améliorer les offres d’emploi, faire remonter les disparités entrantes) ; utilisez ce skill en aval (synthétiser ce qui s’est passé sur les postes ouverts). Acheter Datapeople ne supprime pas le besoin du digest hebdomadaire.
  • vs un digest rédigé manuellement par le coordinateur-recruteur. L’option coordinateur-recruteur fonctionne quand une personne possède la rédaction du digest pendant moins de 8 semaines avant de passer à autre chose. Elle échoue quand le format dérive semaine après semaine (sections différentes chaque lundi) ou quand l’auteur est en vacances. Le skill impose la cohérence de format par structure et supprime le mode d’échec « l’auteur-de-cette-semaine-était-fatigué ». Associez le skill au coordinateur recruteur qui fait la planification sous-jacente et l’application des SLA — ils restent l’opérateur ; le skill est le synthétiseur.
  • vs un script SQL + Python fait maison contre l’export ATS. Mêmes chiffres, coût de configuration inférieur uniquement si vous avez déjà un pipeline d’entrepôt depuis l’ATS. La plupart des équipes n’en ont pas. Le skill livre la passe de filtrage de biais, les définitions d’attribution de source fixes et la convention de demande recommandée ; les reconstruire en interne représente 2 à 3 semaines de travail supplémentaire sans un gain clair.

Points de vigilance

  • Classement de recruteurs ou sourcers individuels — protégé par la passe de filtrage de biais à l’étape 5, qui retire les noms individuels du contexte du LLM. Les agrégations par recruiter_id n’existent que comme vérifications de charge vs capacité. Le format de sortie n’a pas de section de classement de recruteurs et en ajouter une est une expansion de périmètre délibérée qui devrait être un skill séparé avec une posture de consentement séparée (voir aussi le recrutement pour la diversité pour expliquer pourquoi les classements individuels produisent plus de drama organisationnel que d’insight).
  • Dérive d’attribution des sources — protégé par les définitions fixes dans references/3-source-channel-roi-definitions.md et la comparaison à la moyenne glissante sur 4 semaines plutôt que semaine-sur-semaine. Tout canal dont le coût-par-candidat-qualifié bouge de plus de 25 % est signalé au responsable recruiting-ops pour vérification avant que le digest ne parte. La checklist de vérification pose les trois questions qui permettent de détecter les reconfigurations du sélecteur de source ATS et les rapports de factures en retard avant qu’ils soient présentés comme de vraies évolutions.
  • Faux positifs d’anomalies — protégé par la suppression en dessous de 6 semaines d’historique et le seuil de 2 écarts types plutôt qu’un pourcentage fixe. Le plafond strict de 3 anomalies par digest est appliqué même quand davantage passeraient techniquement le seuil, sur la base que trois est la limite supérieure que l’équipe de direction peut traiter par semaine. Au-delà de trois, le digest cesse d’être traité du tout.
  • Données ATS obsolètes — protégé par la vérification à l’étape 1 que l’instantané courant est daté dans les dernières 24 heures. Un digest exécuté sur des données vieilles de trois jours se contredit avec tout cadre qui a vérifié l’ATS hier et érode la confiance plus vite que d’ignorer complètement le digest.
  • Exposition de rôles privilégiés ou sensibles — protégé par le flag confidentiality: restricted dans references/2-role-priority-list-template.md. Les rôles restreints sont résumés uniquement par équipe et étape — pas de titre de rôle, pas de décompte de candidats quand la profondeur du pipeline est faible, pas de nom de hiring manager. Le Head of Talent décide par exécution si un rôle restreint figure dans la version pour la direction élargie.
  • Dérive d’envoi automatique — protégé par l’absence de toute action d’envoi dans le bundle du skill. Le skill écrit digest.md sur disque et se termine. Le responsable recruiting-ops colle dans le canal de son choix après une dernière lecture. Câbler une action d’envoi automatique sur le skill est la demande de fonctionnalité la plus courante et la façon la plus fiable de diffuser du contenu sensible devant le mauvais public.

Stack

Le bundle du skill se trouve dans apps/web/public/artifacts/weekly-recruiting-digest-skill/ et contient :

  • SKILL.md — la définition du skill (quand-invoquer, entrées, méthode en six étapes, format de sortie, points de vigilance)
  • references/1-digest-format.md — format structurel fixe plus préférences d’audience éditables
  • references/2-role-priority-list-template.md — liste de priorité par rôle à remplir avec SLA d’étape et flags de confidentialité
  • references/3-source-channel-roi-definitions.md — calcul fixe du coût-par-candidat-qualifié et du taux-qualifié plus la checklist de vérification de dérive d’attribution

Outils que le workflow suppose que vous utilisez déjà : Claude (le modèle), et Ashby, Greenhouse ou Lever (l’ATS). Associez avec le coordinateur recruteur qui détient la planification et l’application des SLA, et avec le membre d’équipe qui détient le job d’export hebdomadaire. Voir délai de remplissage vs délai d’embauche pour les définitions des métriques que le détail par rôle suppose.

Files in this artifact

Download all (.zip)