ooligo
claude-skill

Construtor de buscas booleanas e X-ray com Claude

Dificuldade
iniciante
Tempo de setup
20min
Para
sourcer · recruiter · talent-acquisition
Recrutamento e TA

Stack

Uma Claude Skill que transforma um intake estruturado de vaga (must-haves, nice-to-haves, anti-sinais, política de localização) em três artefatos de busca calibrados: uma string booleana para o hireEZ, uma query Google X-ray para LinkedIn / GitHub / Stack Overflow, e um prompt para o PeopleGPT do Juicebox com filtros estruturados. Cada query vem nomeada com sua banda esperada de tamanho de pool e as dimensões que captura e não captura, então o sourcer escolhe o canal certo para a vaga em vez de rodar a mesma query nas três ferramentas e receber três pools de formatos diferentes.

Quando usar

  • Você está abrindo uma vaga nova e precisa semear três canais de sourcing em paralelo sem escrever três queries diferentes à mão.
  • Você está ajustando uma busca de baixo rendimento — a query atual retorna 4.000 resultados ou 12 resultados, nenhum dos dois útil — e precisa testar se o problema é cobertura de sinônimos, cláusulas NOT, ou filtro de localização.
  • Você está calibrando um sourcer júnior. A saída estruturada da skill deixa visível qual sinal está fazendo o trabalho de eliminação em cada query, que é a parte que o treinamento de Boolean geralmente pula.

Quando NÃO usar

  • Substituir o julgamento do sourcer sobre o que conta como sinal. A skill transforma a rubrica em query; ela não escreve a rubrica. Se o intake da vaga são dois bullet points, as queries serão três sabores de dois bullet points e não vão retornar candidatos melhores do que chutar.
  • Fazer scraping do LinkedIn público em escala. A query X-ray é para uso ocasional contra a superfície indexada pública, com rate limiting na mão do recrutador. A skill avisa e se recusa a paginar em massa. Sourcing em produção via URLs públicas do LinkedIn é uma violação de ToS, independente do acordo do hiQ.
  • Construção de diversity slate. Queries booleanas podem codificar viés por meio de termos-proxy (nome de escola, afiliação a grupo). Use o diversity slate auditor no pool de candidatos resultante, não na query de busca, para pegar isso.
  • Buscas executivas confidenciais. Queries deixando rastros em históricos de busca compartilhados ou caches de browser são um risco de exposição. Rode essas à mão com o histórico de busca desabilitado.

Setup

  1. Suba o bundle. Coloque apps/web/public/artifacts/boolean-search-builder-claude-skill/SKILL.md no seu diretório de skills do Claude Code ou nas Skills customizadas do claude.ai.
  2. Escreva o intake da vaga. Copie references/1-role-intake-template.md e substitua cada placeholder. O intake distingue must-haves (binário, usado como AND), nice-to-haves (aditivo, usado para ranquear), anti-sinais (usado como NOT) e política de localização (parseada em filtros estruturados).
  3. Configure a profundidade de sinônimos. O padrão da skill é 5 sinônimos por dimensão. Suba para 7-8 numa vaga de nicho onde o label em linguagem natural é ambíguo (ex: “platform engineer” significa coisas diferentes em empresas diferentes). Limite em 10 — além disso as queries retornam pools com falsos positivos.
  4. Rode primeiro numa vaga fechada. Gere queries para uma vaga que você fez sourcing no trimestre passado. Compare os conjuntos de sinônimos que a skill escolheu com os sinônimos que você de fato usou. Ajuste o intake da vaga se a skill perde títulos adjacentes óbvios ou inclui implausíveis.

O que a skill realmente faz

Cinco passos. A ordem importa: o pre-flight da rubrica roda primeiro porque uma rubrica contendo proxies de classe protegida vai produzir queries que os codificam.

  1. Valida o intake contra references/2-rubric-fairness-checklist.md. Trava se o intake da vaga inclui pontuação por prestígio de escola, filtro por padrão de nome, penalidade por lacuna de emprego, ou “fit cultural” sem âncoras comportamentais. A checagem roda em tempo de parse do intake, não em tempo de geração da query, então uma rubrica violadora nunca chega ao passo de expansão de sinônimos.
  2. Expande sinônimos por dimensão. Para cada must-have, gera 5-10 sinônimos ancorados em uso da indústria (títulos, nomes de frameworks, certificações). Cita o raciocínio por sinônimo para que o sourcer descarte os implausíveis antes da query ser construída. Sinônimos não são inventados; se o modelo não consegue ancorar um sinônimo em uso nomeado, ele é omitido.
  3. Constrói três queries em paralelo. hireEZ Boolean — agrupamento explícito AND/OR/NOT com parênteses, limite de 5 sinônimos, localização parseada no filtro estruturado do hireEZ em vez de texto livre. Google X-raysite:linkedin.com/in ou site:github.com com aspas no título e um filtro - para anti-sinais. Juicebox PeopleGPT — prompt em linguagem natural com filtros estruturados para nível e localização. Cada query mira os pontos fortes do canal; a mesma vaga não é descrita identicamente nos três.
  4. Estima a banda de tamanho do pool. Para cada query, retorna uma banda esperada de tamanho de pool (ex: “200-800 resultados no hireEZ para essa geografia”) com as premissas nomeadas. A banda é calibrada contra a contagem de sinônimos e o filtro de localização; sourcers podem apertar ou afrouxar com base na banda em vez de rodar a query e levar susto.
  5. Expõe gaps de cobertura dimensional. Cada query é anotada com o que ela não está capturando — geralmente probabilidade de resposta (sem filtro de recência), nível (Boolean não consegue codificar bem “Senior IC scope”), ou sinais comportamentais (nenhuma expressão Boolean captura “liderou migração”). A saída torna o gap visível para o sourcer planejar o próximo passo (ranqueamento por rubrica no pool retornado, ou uma query de follow-up para a dimensão faltante).

Realidade de custo

Por intake-de-vaga-para-três-queries, no Claude Sonnet 4.6:

  • Tokens de LLM — tipicamente 4-7k input (intake + instruções da skill + exemplos) e 2-3k output (três queries + raciocínio por sinônimo + estimativa de pool). No preço de tabela do Sonnet 4.6, algo como US$ 0,04-0,07 por vaga. Um sourcer rodando 30 vagas por trimestre gasta US$ 1-2 em custo de modelo.
  • Custo de canal — depende do que você faz com as queries. Rodá-las consome a cota do canal que você gastaria de qualquer jeito. A skill em si não roda contra nenhuma API de sourcing.
  • Tempo do sourcer — o ganho. Escrever três queries calibradas à mão leva 30-60 minutos por vaga; a skill leva 5-10 minutos incluindo ler o raciocínio dos sinônimos e descartar termos implausíveis. O ganho maior de tempo é em ajustar buscas de baixo rendimento, onde a estimativa de pool da skill torna o loop de diagnóstico visível.
  • Tempo de setup — 20 minutos uma vez. O template de intake da vaga é o artefato vinculante; times que já escrevem intakes estruturados adotam a skill em um ciclo de abertura de vaga.

Métrica de sucesso

Acompanhe dois números por vaga com sourcing:

  • First-pass yield — fatia de candidatos do pool buscado que passa o passo de ranqueamento por rubrica (no processo do sourcer ou via a skill de candidate sourcing). Deve ficar em 25-50% para uma query calibrada; abaixo de 15% significa que a expansão de sinônimos está frouxa demais, acima de 60% significa estreita demais.
  • Acurácia da estimativa de tamanho de pool — tamanho real de pool retornado pelo canal vs. estimativa da skill. Deve cair dentro de ±50% da banda numa geografia conhecida. Drift maior significa que a contagem de sinônimos está errada para a especificidade da vaga.

vs alternativas

  • vs AI Match do hireEZ (sugestão de query nativa) — as sugestões do hireEZ são boas e a UX dentro do produto é mais rápida do que copiar e colar de uma Skill. Escolha AI Match se você vive no hireEZ. Escolha a Skill se você precisa de queries calibradas para múltiplos canais (para que a mesma vaga ataque hireEZ, Juicebox e X-ray sob critérios consistentes), ou se você quer o raciocínio dos sinônimos visível para treinar um sourcer júnior.
  • vs ChatGPT estilo “escreva uma query Boolean pra mim” — chat genérico retorna uma string Boolean sem raciocínio por sinônimo, sem estimativa de pool, sem tuning específico por canal e sem pre-flight de fairness. A Skill é estruturalmente diferente: força as dimensões em campos separados, recusa rubricas enviesadas e expõe o gap de cobertura.
  • vs templates de cheat-sheet de Boolean — templates funcionam para os 80% de vagas que casam com o template, e produzem queries-lixo de 4.000 resultados nos 20% de vagas onde as premissas do template estão erradas (stack de nicho, escopo híbrido IC/manager, indústria regulada). A Skill é o diagnóstico para esses casos de borda.
  • vs escrever queries à mão — escrever à mão é a chamada certa para vagas com rubrica estável e repetível onde as heurísticas do sourcer já codificam os sinônimos. A Skill paga seu custo de setup em vagas novas ou em ajuste de buscas de baixo rendimento.

Pontos de atenção

  • Codificação de viés por termos-proxy. Guarda: o pre-flight de fairness no passo 1 trava se o intake da vaga nomear proxies de classe protegida. Prestígio de escola em particular: não liste escolas específicas como must_have; liste o sinal de profundidade técnica com o qual essas escolas tendem a correlacionar e deixe a expansão de sinônimos pegar graduados de escolas fora do alvo que têm a profundidade.
  • Exposição a ToS do LinkedIn no X-ray. Guarda: a saída da query X-ray vem anotada com um aviso “uso manual apenas” e um máximo recomendado de 50 page-fetches por query antes de migrar para a Recruiter API ou Juicebox. A Skill não gera scripts de scraping.
  • Alucinação de sinônimos. Guarda: cada sinônimo na saída cita o raciocínio de origem (“usado comumente em Stripe / Plaid / fintechs”, “framework introduzido em 2022, nome varia”). Sinônimos sem raciocínio ancorado são descartados antes da query ser construída. Se o sourcer vê um sinônimo citado que não bate com o uso real, esse é o sinal de ajustar o intake da vaga.
  • Drift na estimativa de tamanho de pool. Guarda: a estimativa é uma banda, não um número, e vem anotada com a geografia e a contagem de sinônimos que assume. Se os resultados reais divergem em mais de 2× da banda, registre o drift e re-calibre; não aja sobre a estimativa como se fosse uma medição.
  • Sinônimos defasados em stacks de evolução rápida. Guarda: as fontes de sinônimo da skill incluem uma checagem de “última verificação”. Para vagas muito novas (ex: posições de AI infra onde os títulos mudaram em 2025-2026), a skill flagga sinônimos como “uso pós-2024; verifique no canal” em vez de afirmá-los.

Stack

O bundle da skill vive em apps/web/public/artifacts/boolean-search-builder-claude-skill/ e contém:

  • SKILL.md — a definição da skill (quando invocar, inputs, método, formato de saída, pontos de atenção)
  • references/1-role-intake-template.md — template preenchível por vaga
  • references/2-rubric-fairness-checklist.md — checagens pre-flight (não edite para fazer intakes enviesados passarem)
  • references/3-channel-query-formats.md — notas de sintaxe por canal (hireEZ, X-ray, Juicebox)

Ferramentas que o workflow assume que você já usa: Claude (o modelo), hireEZ e Juicebox (os canais de retrieval). Para ranquear o pool retornado, veja a skill de candidate sourcing.

Conceitos relacionados: AI sourcing, passive candidate sourcing, recruiting funnel metrics.

Arquivos deste artefato

Baixar tudo (.zip)