ooligo
TIPO · framework

Política de AI para equipos legales

Última actualización 2026-05-03 Legal Ops

Una política de AI para equipos legales es el conjunto documentado de reglas que gobiernan cómo los abogados y el staff de Legal Ops usan herramientas de AI generativa — qué tools están autorizados, para qué casos de uso, con qué data, con qué oversight de abogado, y con qué disclosure al cliente. Los colegios de abogados estatales en California, Nueva York, Florida, y la mayoría de las otras jurisdicciones de US han emitido opiniones formales sobre uso de AI; el EU AI Act crea obligaciones adicionales para la práctica legal en Europa. Una política funcional traduce esos requisitos en reglas operacionales concretas.

Qué debe cubrir una política de AI

Seis elementos requeridos:

  1. Tools autorizados. Qué vendors de AI están aprobados para qué casos de uso. Default-deny para tools no aprobados.
  2. Casos de uso autorizados. Qué puede hacer el AI (asistencia en research, drafting, summarization) vs qué solo pueden hacer los humanos (asesoría legal entregada al cliente, sign-off en filings, determinaciones éticas).
  3. Manejo de data. Qué data puede enviarse a qué tool. Info confidencial del cliente → solo vendors enterprise-tier con garantías contractuales de no-training. Comunicaciones privilegiadas → típicamente prohibidas de tools no-enterprise enteramente.
  4. Oversight de abogado. El output del AI es revisado por un abogado competente antes de salir de la firma. Estándares de verificación para citaciones, claims fácticos, conclusiones legales.
  5. Disclosure al cliente. Cuándo y cómo divulgar el uso de AI a los clientes. Algunas jurisdicciones requieren disclosure para involucramiento material de AI; otras no, pero la best-practice favorece la transparencia.
  6. Entrenamiento y monitoreo. Entrenamiento requerido para abogados antes del acceso a tools de AI; monitoreo de patrones de uso para detectar uso fuera de política.

Tools autorizados por tier

Un modelo de tier funcional:

  • Tier A — Aprobado enterprise. Específicamente licenciado para la firma con términos enterprise de data (no-training, audit logs, SSO). Ejemplos: Claude Enterprise, Harvey, Thomson Reuters CoCounsel, Spellbook Business. Autorizado para contenido confidencial y (con restricciones) privilegiado.
  • Tier B — Permitido en cuenta personal. Tools free o de tier personal sin términos enterprise de data. Autorizado solo para trabajo no-confidencial — research en matters públicos, aprendizaje, análisis de documentos públicos.
  • Tier C — Prohibido. Cualquier tool sin términos de data aceptables o con preocupaciones de seguridad conocidas. Estado default para cualquier tool no evaluado.

La política enumera explícitamente Tier A y Tier B; todo lo demás defaultea a Tier C.

Casos de uso autorizados

Seis categorías, con autorización típica:

Caso de usoTier ATier B
Research legal (fuentes públicas)AutorizadoAutorizado
Drafting de documentos (con review de abogado)AutorizadoRestringido a no-confidencial
Review de contratos y redliningAutorizadoProhibido
Summarization de documentosAutorizadoRestringido a no-confidencial
Generación de comunicaciones al clienteAutorizado con reviewProhibido
Draft de court filingAutorizado con verificación de abogadoProhibido
Asesoría legal al clienteProhibido (siempre un abogado humano)Prohibido

La línea “siempre un abogado humano” es la bright rule a través de toda opinión de ética de AI de toda jurisdicción — el AI asiste; los abogados asesoran.

Verificación de citaciones — el sello del uso profesional-grade de AI

Toda autoridad citada en work product generado por AI es verificada por un abogado antes de que el documento salga de la firma. Los casos de disciplina profesional contra abogados por hallucinations de AI (los casos “Avianca” desde 2023 en adelante) todos comparten el mismo patrón fáctico: el AI generó casos ficticios; el abogado no verificó; el caso se filed; vinieron sanciones.

El estándar de verificación es concreto: traer el caso desde Westlaw o LEXIS, confirmar la accuracy de la citación, confirmar que el caso sostiene la proposición citada. Citaciones generadas por AI sin verificación independiente son malpractice profesional en toda jurisdicción de US.

Implicaciones del EU AI Act

Para práctica legal en la EU, el EU AI Act agrega:

  • La mayoría de los tools legal-AI son limited-risk. Aplican obligaciones de transparencia (divulgar el uso de AI a las partes que interactúan).
  • Algunos tools legal-AI pueden ser high-risk. El AI usado en administración de justicia (decision-support judicial) es high-risk y sujeto a conformity assessment, registro, y monitoreo ongoing.
  • Reglas de workplace AI. Tools de AI que monitorean o evalúan empleados (incluyendo los patrones de trabajo de los abogados) disparan obligaciones de workplace-AI incluyendo consulta con works councils.

Firmas de US que practican en la EU deberían alinear la política de AI con los requisitos del EU AI Act donde los data flows o las operaciones cruzan.

Cómo operacionalizar

  1. Documenta la política explícitamente. Una política escrita, versionada, que todos los abogados reconocen por escrito. “Normas” verbales producen inconsistencia y no defienden contra quejas de ética.
  2. Lista de tools Tier-A mantenida centralmente. Legal Ops es dueño de la lista de tools aprobados; tools nuevos requieren evaluación formal antes de autorización.
  3. Entrenamiento mandatorio antes de acceso. Ningún abogado obtiene acceso a tool Tier A sin completar el entrenamiento de política de AI. Refresher anual.
  4. Audits de muestra de trabajo generado por AI. Spot-check una muestra de work product augmentado por AI por trimestre para verificación de citaciones, review de abogado, y compliance de disclosure.
  5. Playbook de incident-response. Cuando el output de AI produce un error en work product de cliente, proceso definido: notificar al cliente, corregir, documentar, aprender. No escondas.
  6. Actualiza contra opiniones del bar. Opiniones estatales y jurisdiccionales evolucionan; la política necesita cadencia de update para trackearlas.

Relacionado