ooligo
prompt

Banco de preguntas de entrevista — prompt pack etiquetado por competencia

Dificultad
principiante
Tiempo de setup
15min
Para
recruiter · hiring-manager · interviewer
Reclutamiento y TA

Stack

Un pack de prompts estructurados para Claude que convierten una rúbrica de rol en un set de preguntas de entrevista por niveles: behavioral (sondear comportamiento pasado bajo condiciones nombradas), situacional (respuesta a un hipotético), technical-deep-dive (profundizar en una competencia declarada) y reverse-questions (qué esperar del candidato, con qué respuestas señalan qué). Cada pregunta va etiquetada con la dimensión de la rúbrica que sondea, el anclaje que diferencia y el follow-up que hay que hacer si la respuesta está demasiado ensayada. Reemplaza la entrevista “improvisamos sobre la marcha” con una biblioteca de preguntas que el panel realmente abre antes de la call.

Cuándo usarlo

  • El rol tiene una rúbrica escrita (prerrequisito de structured interviewing).
  • El panel de entrevista incluye entrevistadores que no corren entrevistas regularmente — engineers, hiring managers, IC leads — y necesitan entrar con preguntas preparadas calibradas a la rúbrica.
  • Quieres consistencia entre panelistas. Cada panelista hace variantes de las mismas preguntas ancla, así el debrief compara notas sobre las mismas dimensiones.
  • Estás calibrando a un entrevistador junior. Las anotaciones de “follow-up si está ensayada” del pack hacen visible la señal más profunda.

Cuándo NO usarlo

  • Entrevistas no estructuradas de cultural-add donde el objetivo es rapport, no señal. Conversación distinta. El pack es para rondas de recolección de señal.
  • Entrevistas de live coding. Artefacto distinto (formato code-and-talk). El workflow del take-home evaluator se encarga de la evaluación de artefactos; live-coding es su propio workflow.
  • Rúbricas que no han pasado un check de fairness — los prompts del pack producirán preguntas que sondean las dimensiones de la rúbrica, incluyendo las malas. Pasa la rúbrica primero por el framing del diversity slate auditor o por el pre-flight de fairness del Boolean search builder.
  • Preguntas que quieres congelar para el año. El pack regenera por-rol-por-rúbrica. Si tu firma necesita preguntas congeladas y revisadas para compliance legal (algunas industrias lo necesitan), usa el pack como starter y bloquea el output, no los prompts en sí.

Setup

  1. Coloca el bundle. Pon apps/web/public/artifacts/interview-question-bank-prompt-pack/interview-question-bank-prompt-pack.md en algún sitio donde tus entrevistadores puedan leerlo (Notion, la wiki del equipo, los archivos de conocimiento de un proyecto interno de Claude).
  2. Redacta la rúbrica del rol. La misma rúbrica que usan los workflows de screen y reference. Sin ella, los prompts no tienen nada que sondear.
  3. Crea un proyecto de Claude por rol. Mete la rúbrica como conocimiento del proyecto. Guarda cada prompt del pack como un saved prompt dentro del proyecto.
  4. Genera las preguntas. Corre cada prompt contra la rúbrica. Copia las preguntas al doc de prep de entrevista del panel. Etiqueta cada pregunta con el panelista que la hará.
  5. Revisa por tono y fit. Los prompts producen preguntas competentes. El hiring manager las edita para la voz de la firma y las especificidades del rol.

Qué contiene el pack

Doce prompts, en tres niveles.

Tier 1 — Behavioral (sondear comportamiento pasado bajo condiciones nombradas)

Las preguntas behavioral son los caballos de batalla del structured interviewing. El pack genera preguntas en la forma STAR (Situación, Tarea, Acción, Resultado) por dimensión de rúbrica, con un follow-up para cada una que perfora más allá de la respuesta ensayada.

  • B1. Producir 3 preguntas behavioral por dimensión de rúbrica. Cada una etiquetada con la dimensión y el anclaje de rúbrica (1-5) que discrimina.
  • B2. Para cada pregunta behavioral, producir un drill-down para el caso en que la respuesta está demasiado ensayada (el panelista nota que el candidato preparó esta historia exacta). El drill-down pide un ejemplo distinto, un contrafáctico o un paso que el candidato saltó.
  • B3. Producir 3 preguntas behavioral que sondeen lo negativo — cuándo el candidato falló en la dimensión. Reduce preventivamente la no-respuesta tipo “soy perfeccionista”.

Tier 2 — Situacional (respuesta a un hipotético)

Las preguntas situacionales sondean cómo el candidato manejaría un escenario. Menos confiables que las behavioral pero útiles para preguntas de senior-scope donde el candidato puede no tener una situación pasada directamente comparable.

  • S1. Producir 2 escenarios situacionales por dimensión de rúbrica al nivel del rol. Cada escenario está calibrado al nivel (problemas de scope Senior IC, no scope Staff; problemas de scope Manager, no scope Director).
  • S2. Para cada escenario, listar las dimensiones de respuesta que el panelista debe escuchar (criterios específicos de decisión, qué pregunta antes de decidir, qué evita).

Tier 3 — Deep-dive técnico / de craft

Para roles donde hay un craft (engineering, design, metodología de ventas), este tier produce preguntas que profundizan en la competencia declarada del candidato.

  • T1. Dadas las skills must_have de la rúbrica, producir 5 preguntas de deep-dive por skill. Cada una etiquetada “shallow” (sanity check de que el candidato tiene la skill en absoluto) o “deep” (sondear los bordes de la skill).
  • T2. Para cada pregunta de deep-dive, listar 3 follow-ups que el panelista hace si la primera respuesta del candidato es correcta pero superficial.
  • T3. Producir 2 preguntas que saquen a la luz un gap en la skill en lugar de confirmar presencia. (“Cuéntame de una vez en que tuviste que usar X pero no tenías Y.” Sondea si el candidato nota el límite.)

Tier 4 — Reverse questions (lo que el candidato pregunta de vuelta)

Los candidatos fuertes hacen preguntas sustantivas. Los candidatos débiles preguntan “cómo es la cultura”. Este tier ayuda al panelista a leer las preguntas del candidato.

  • R1. Producir una lista de 10 preguntas sustantivas que un candidato fuerte podría hacer, agrupadas por lo que cada pregunta señala (el candidato está pensando en X, prefiere Y, está buscando Z).
  • R2. Producir una lista de 10 preguntas débiles / genéricas y qué señala cada una (el candidato no investigó, está ansioso por lo básico, está pescando una respuesta específica).

Realidad de costos

Por generación de preguntas de un rol, en Claude Sonnet 4.6:

  • Tokens del LLM — típicamente 5-10k de input (rúbrica + prompt + instrucciones del skill) y 3-6k de output (la biblioteca de preguntas generada) por invocación de prompt. Total por rol: aproximadamente $0.30-0.60 si corres los 12 prompts.
  • Tiempo de los entrevistadores — la victoria. Redactar a mano una biblioteca de preguntas behavioral por rol son 4-8 horas; el pack entrega una biblioteca starter en 30 minutos de prompt-and-edit.
  • Tiempo de setup — 15 minutos para configurar el proyecto de Claude por rol. El setup del pack a nivel firma (guardar prompts, integrar con la wiki del equipo) es una tarea one-time de 30-60 minutos.

Métrica de éxito

Trackea tres cosas, mensualmente:

  • Solapamiento de preguntas entre panelistas — proporción de preguntas hechas por ≥2 panelistas en el mismo loop. Debería ser ≥40% en un pack calibrado (las dimensiones de la rúbrica SON el hilo conductor); por debajo de 25% significa que los panelistas están improvisando.
  • Tiempo de debrief — wall-clock desde “termina la última entrevista” hasta “decisión registrada”. Debería bajar ~30% porque los debriefs están anclados en las mismas dimensiones.
  • Confianza del panelista en sus notas — cualitativo; pregunta a los panelistas “¿entraste con una biblioteca de preguntas?” La respuesta honesta en la mayoría de las firmas es “no, improvisamos” — la métrica de éxito del pack es mover eso a “sí, y ayudó.”

vs alternativas

  • vs biblioteca de preguntas redactada a mano. Redactar a mano es lo correcto para un equipo pequeño que itera rápido donde la rúbrica y las preguntas co-evolucionan en las cabezas de los founders. El pack se gana su costo de setup en equipos que contratan con varios panelistas por loop.
  • vs bancos de preguntas nativos del ATS (Greenhouse Interview Plans, Ashby Interview Templates). El nativo del ATS es lo correcto si tu equipo vive en el ATS y quiere las preguntas surgidas en contexto. Elige el pack si quieres la biblioteca de preguntas versionada en tu propio repo y re-generable a medida que la rúbrica evoluciona.
  • vs el “dame preguntas de entrevista para senior engineer” estilo ChatGPT. El chat genérico devuelve preguntas genéricas. El pack es estructuralmente distinto: cada pregunta está etiquetada con una dimensión de rúbrica, un anclaje y un follow-up.
  • vs ningún prep en absoluto. Modo de falla predecible: los panelistas hacen preguntas distintas, el debrief compara peras con manzanas, la decisión drifta hacia quien habló primero.

A vigilar

  • Herencia de sesgo desde la rúbrica. Guard: el pack genera preguntas DESDE la rúbrica. Si la rúbrica tiene dimensiones sesgadas (“culture fit” sin anclajes, scoring por prestigio de universidad), las preguntas sondean el sesgo. Audita la rúbrica aguas arriba — ver el diversity slate auditor.
  • Ensayo de preguntas. Guard: el prompt B2 del pack produce explícitamente drill-downs para respuestas ensayadas. El drill-down pide un ejemplo distinto o un contrafáctico; no deja que el candidato re-corra el script preparado.
  • Preguntas genéricas que se cuelan. Guard: cada pregunta generada debe referenciar la dimensión de rúbrica y el anclaje que discrimina. Las preguntas que no referencian un anclaje se marcan en el output del prompt para que el panelista las descarte o reescriba.
  • Dificultad inconsistente de preguntas entre panelistas. Guard: los prompts están etiquetados con el anclaje de rúbrica (1-5) al que están calibrados. Dos panelistas haciendo preguntas distintas sobre la misma dimensión siguen estando calibrados a los mismos anclajes.
  • Explosión de longitud. Guard: los prompts del pack capean el output en “3 por dimensión, 12 dimensiones máximo” — la biblioteca de un rol típico aterriza en ~50-80 preguntas, no 500. El hiring manager elige 8-15 para usar realmente por slot de panel.
  • Preguntas obsoletas sobre rúbricas stale. Guard: re-corre el pack cuando cambia la rúbrica (el pack es rápido — 30 minutos es barato). Las bibliotecas de preguntas viejas linkeadas desde docs de prep de entrevista se vuelven obsoletas en silencio si no.

Stack

El bundle del artefacto vive en apps/web/public/artifacts/interview-question-bank-prompt-pack/ y contiene:

  • interview-question-bank-prompt-pack.md — los doce prompts, listos para pegar en Claude

Herramientas que el workflow asume que usas: Claude (el modelo). El output cae en Notion, la wiki del equipo o una plantilla de interview-plan del ATS.

Conceptos relacionados: structured interviewing, behavioral interviewing, interview loop design, quality of hire.

Archivos de este artefacto

Descargar todo (.zip)