En un contexto donde los sistemas de inteligencia artificial (IA) están transformando aceleradamente el ecosistema jurídico, un exhaustivo y meticuloso informe técnico elaborado por Alex Dantart, Chief Information Officer de la tecnológica LittleJohn, propone lo que ya muchos especialistas comienzan a considerar un documento de referencia común para afrontar, con rigor y método, el fenómeno de las “alucinaciones” en la IA aplicada al derecho.
La obra plantea una hoja de ruta crítica y metodológica para construir sistemas jurídicos asistidos por IA fiables, verificables y auditables.
Bajo el título “Inteligencia artificial jurídica y el desafío de la veracidad” (disponible en arXiv y adjunto al final de este artículo), el informe parte de una premisa disruptiva: el verdadero riesgo no está en la IA que alucina —que inventa o tergiversa contenido de forma verosímil—, sino en el usuario que la usa sin criterio, creyendo que consulta un oráculo infalible. Lo que se diagnostica no es sólo un fallo técnico, sino un problema estructural de paradigma.
“No es un bug; es una característica. Los modelos están diseñados para sonar convincentes, no para ser fieles. El peligro está en creerlos sin verificar”, advierte Alex Dantart, que propone abandonar la fascinación por la fluidez conversacional de los grandes modelos de lenguaje (LLMs) y reorientar su uso hacia lo que denomina IA consultiva: sistemas especializados que priorizan la recuperación verificada de información y la trazabilidad de las fuentes.
¿Qué son las “alucinaciones” en IA jurídica?
El informe define con precisión el concepto de alucinación legal, distanciándose de una interpretación simplista basada en errores fácticos. Según Dantart, una alucinación puede implicar tanto invenciones flagrantes (como la creación de jurisprudencia inexistente), como tergiversaciones sutiles o argumentaciones que parecen válidas pero son legalmente inviables o indefendibles bajo escrutinio experto.
A partir de estudios empíricos y taxonomías recientes, el informe clasifica las alucinaciones legales en:
Alucinaciones factuales: invención o distorsión de leyes, casos o precedentes.
Misgrounding: el modelo cita correctamente una fuente, pero la interpreta mal o la contradice.
Ungrounding: el modelo no respalda sus afirmaciones en ninguna fuente.
Alucinaciones de razonamiento: errores lógicos o interpretaciones inconsistentes.
Alucinaciones intrínsecas: incoherencias respecto al propio input o corpus de entrenamiento.
De la IA generativa a la IA consultiva: dos modelos, dos riesgos
Uno de los mayores aportes conceptuales del informe es la distinción entre dos paradigmas de IA:
IA generativa (“el oráculo creativo”): como GPT-4 o Gemini, está optimizada para producir texto plausible, pero no necesariamente veraz. Es ideal para tareas creativas, pero altamente peligrosa en entornos regulados como el jurídico.
IA consultiva (“el archivero experto”): utiliza Retrieval-Augmented Generation (RAG) para generar respuestas a partir de fuentes externas verificables. Se basa en la trazabilidad, no en la fluidez, y su diseño reduce de forma significativa las alucinaciones.
La clave, insiste Dantart, no está en seguir mejorando la IA generativa, sino en apostar por una IA consultiva que amplifique el juicio humano, no que lo reemplace.
RAG: una solución necesaria, pero no suficiente
El informe dedica una parte sustancial al análisis crítico del uso de RAG, reconociéndolo como el enfoque más prometedor para mitigar alucinaciones, pero dejando claro que no es infalible. Según el estudio, las herramientas legales más avanzadas que usan RAG —como Lexis+ AI o Westlaw AI— siguen teniendo tasas de error del 17% al 33% en consultas jurídicas complejas.
“RAG reduce errores, pero no los elimina. La generación aún puede tergiversar fuentes o construir razonamientos inválidos”, alerta el documento, que propone una combinación de técnicas avanzadas como:
Optimización de chunking legal semántico y estructural.
Ingeniería de prompts conscientes de la jerarquía normativa (modelo Kelsen)¹.
Incorporación de evaluadores automáticos (LLMs-as-a-judge).
Procesos de verificación post-hoc con citación obligatoria y calibración de confianza.
Una guía viva y práctica para profesionales del derecho
Además de su profundidad teórica, el informe se presenta como una herramienta práctica para auditar flujos de trabajo, productos LegalTech y decisiones asistidas por IA. Propone un checklist exigente y adaptable que estandariza lenguaje, mide calidad y delimita riesgos para:
Despachos de abogados.
Asesorías jurídicas.
Administraciones públicas.
Proveedores de servicios tecnológicos.
Dantart subraya que el documento no debe considerarse un monumento teórico, sino una herramienta viva, abierta a revisión, mejora y crítica. En este sentido, invita explícitamente a los profesionales a compartir casos, errores y sugerencias.
Un nuevo estándar ético y profesional para la IA legal
La publicación pone sobre la mesa un debate que trasciende lo técnico: el de la responsabilidad profesional. Lejos de ser una amenaza para los juristas, la IA —bien diseñada e implementada— refuerza su papel como supervisores críticos, curadores de conocimiento y garantes éticos del proceso legal.
“Este informe no es una condena de la IA. Es una guía para pasar de la fascinación por la magia a la implementación de una ingeniería responsable”, concluye el autor.
Con el respaldo de evidencias empíricas, casos reales y referencias normativas como la Ley de Inteligencia Artificial de la UE (Reglamento 2024/1689), el informe establece una base sólida para la integración cautelosa y eficaz de la IA en el derecho, sin renunciar al criterio, la trazabilidad y la ética que sustentan el Estado de Derecho.
¹ El modelo Kelsen, o Pirámide de Kelsen, es un esquema jerárquico del sistema jurídico que organiza las normas legales en distintos niveles, desde la Constitución en la cúspide hasta las normas individualizadas (sentencias, acuerdos, contratos…) en la base. Su propósito es la pureza del derecho, separándolo de otras disciplinas como la sociología o la moral, y establece que la validez de una norma inferior depende de su conformidad con la norma de rango superior.
Inteligencia Artificial jurídica y el desafío de la veracidad: análisis de alucinaciones, optimización de RAG y principios para una integración responsable
IA_Juri_dica_y_el_desafi_o_de_la_veracidad (es)
Artículo redactado con asistencia de IA (Ref. APA: OpenAI. (2025). ChatGPT (versión 2025-09-26). OpenAI)