• Quienes somos
  • Nuestra Historia
  • Contactar
  • Políticas de Privacidad
  • Políticas IA
  • FUNDACIÓN
Informativos.Net
Medio online independiente desde 1999
Informativos.Net
  • Inicio
  • Life Style Magazine
  • Editorial
  • Secciones
    • Actualidad
    • Cultura
    • Entrevistas
    • Fake News
    • Gastronomia-Vinos
    • LifeStyle & Destinos
    • Medio Ambiente y Renovables
    • Seguridad, Autoprotección y emergencias
    • Salud
  • Archivo
    • Otros Paises
    • Panorama Mundial
    • Música
    • Noticias Curiosas
    • Cine
    • Empresas
    • Motor
    • Opinión del Lector
    • Chile
    • Catalunya
    • Publi-Reportajes
    • Tecnología
    • Vela
  • Políticas IA
  • Autores
    • Gema Castellano
    • Jose Escribano
    • Abel Marín
    • Christian Correa
    • Dr. Francisco Jose Roig
    • Gustavo Egusquiza
    • Jesús Belenguer
    • Jose Anastasio Urra Urbieta
    • Pablo Arce
  • Sobre Gema Castellano
  • Autores y Redactores de Informativos.Net
Photo by cottonbro studio on Pexels
ActualidadCultura

El mayor riesgo de la IA jurídica no está en la máquina, sino en el usuario

El informe técnico de Alex Dantart, “Inteligencia artificial jurídica y el desafío de la veracidad”, denuncia que las “alucinaciones” de los modelos de IA no son el principal problema: lo es la ilusión del profesional que las usa como si fueran infalibles.

por Jose Escribano 27 de septiembre de 2025
0FacebookTwitterPinterestLinkedinRedditWhatsappTelegramEmail
115

En un contexto donde los sistemas de inteligencia artificial (IA) están transformando aceleradamente el ecosistema jurídico, un exhaustivo y meticuloso informe técnico elaborado por Alex Dantart, Chief Information Officer de la tecnológica LittleJohn, propone lo que ya muchos especialistas comienzan a considerar un documento de referencia común para afrontar, con rigor y método, el fenómeno de las “alucinaciones” en la IA aplicada al derecho.

 La obra plantea una hoja de ruta crítica y metodológica para construir sistemas jurídicos asistidos por IA fiables, verificables y auditables.

Bajo el título “Inteligencia artificial jurídica y el desafío de la veracidad” (disponible en arXiv y adjunto al final de este artículo), el informe parte de una premisa disruptiva: el verdadero riesgo no está en la IA que alucina —que inventa o tergiversa contenido de forma verosímil—, sino en el usuario que la usa sin criterio, creyendo que consulta un oráculo infalible. Lo que se diagnostica no es sólo un fallo técnico, sino un problema estructural de paradigma.

“No es un bug; es una característica. Los modelos están diseñados para sonar convincentes, no para ser fieles. El peligro está en creerlos sin verificar”, advierte Alex Dantart, que propone abandonar la fascinación por la fluidez conversacional de los grandes modelos de lenguaje (LLMs) y reorientar su uso hacia lo que denomina IA consultiva: sistemas especializados que priorizan la recuperación verificada de información y la trazabilidad de las fuentes.

¿Qué son las “alucinaciones” en IA jurídica?

El informe define con precisión el concepto de alucinación legal, distanciándose de una interpretación simplista basada en errores fácticos. Según Dantart, una alucinación puede implicar tanto invenciones flagrantes (como la creación de jurisprudencia inexistente), como tergiversaciones sutiles o argumentaciones que parecen válidas pero son legalmente inviables o indefendibles bajo escrutinio experto.

A partir de estudios empíricos y taxonomías recientes, el informe clasifica las alucinaciones legales en:

        • Alucinaciones factuales: invención o distorsión de leyes, casos o precedentes.

        • Misgrounding: el modelo cita correctamente una fuente, pero la interpreta mal o la contradice.

        • Ungrounding: el modelo no respalda sus afirmaciones en ninguna fuente.

        • Alucinaciones de razonamiento: errores lógicos o interpretaciones inconsistentes.

        • Alucinaciones intrínsecas: incoherencias respecto al propio input o corpus de entrenamiento.

De la IA generativa a la IA consultiva: dos modelos, dos riesgos

Uno de los mayores aportes conceptuales del informe es la distinción entre dos paradigmas de IA:

        • IA generativa (“el oráculo creativo”): como GPT-4 o Gemini, está optimizada para producir texto plausible, pero no necesariamente veraz. Es ideal para tareas creativas, pero altamente peligrosa en entornos regulados como el jurídico.

        • IA consultiva (“el archivero experto”): utiliza Retrieval-Augmented Generation (RAG) para generar respuestas a partir de fuentes externas verificables. Se basa en la trazabilidad, no en la fluidez, y su diseño reduce de forma significativa las alucinaciones.

La clave, insiste Dantart, no está en seguir mejorando la IA generativa, sino en apostar por una IA consultiva que amplifique el juicio humano, no que lo reemplace.

RAG: una solución necesaria, pero no suficiente

El informe dedica una parte sustancial al análisis crítico del uso de RAG, reconociéndolo como el enfoque más prometedor para mitigar alucinaciones, pero dejando claro que no es infalible. Según el estudio, las herramientas legales más avanzadas que usan RAG —como Lexis+ AI o Westlaw AI— siguen teniendo tasas de error del 17% al 33% en consultas jurídicas complejas.

“RAG reduce errores, pero no los elimina. La generación aún puede tergiversar fuentes o construir razonamientos inválidos”, alerta el documento, que propone una combinación de técnicas avanzadas como:

      • Optimización de chunking legal semántico y estructural.

      • Ingeniería de prompts conscientes de la jerarquía normativa (modelo Kelsen)¹.

      • Incorporación de evaluadores automáticos (LLMs-as-a-judge).

      • Procesos de verificación post-hoc con citación obligatoria y calibración de confianza.

Una guía viva y práctica para profesionales del derecho

Además de su profundidad teórica, el informe se presenta como una herramienta práctica para auditar flujos de trabajo, productos LegalTech y decisiones asistidas por IA. Propone un checklist exigente y adaptable que estandariza lenguaje, mide calidad y delimita riesgos para:

      • Despachos de abogados.

      • Asesorías jurídicas.

      • Administraciones públicas.

      • Proveedores de servicios tecnológicos.

Dantart subraya que el documento no debe considerarse un monumento teórico, sino una herramienta viva, abierta a revisión, mejora y crítica. En este sentido, invita explícitamente a los profesionales a compartir casos, errores y sugerencias.

Un nuevo estándar ético y profesional para la IA legal

La publicación pone sobre la mesa un debate que trasciende lo técnico: el de la responsabilidad profesional. Lejos de ser una amenaza para los juristas, la IA —bien diseñada e implementada— refuerza su papel como supervisores críticos, curadores de conocimiento y garantes éticos del proceso legal.

“Este informe no es una condena de la IA. Es una guía para pasar de la fascinación por la magia a la implementación de una ingeniería responsable”, concluye el autor.

Con el respaldo de evidencias empíricas, casos reales y referencias normativas como la Ley de Inteligencia Artificial de la UE (Reglamento 2024/1689), el informe establece una base sólida para la integración cautelosa y eficaz de la IA en el derecho, sin renunciar al criterio, la trazabilidad y la ética que sustentan el Estado de Derecho.

¹ El modelo Kelsen, o Pirámide de Kelsen, es un esquema jerárquico del sistema jurídico que organiza las normas legales en distintos niveles, desde la Constitución en la cúspide hasta las normas individualizadas (sentencias, acuerdos, contratos…) en la base. Su propósito es la pureza del derecho, separándolo de otras disciplinas como la sociología o la moral, y establece que la validez de una norma inferior depende de su conformidad con la norma de rango superior. 

Inteligencia Artificial jurídica y el desafío de la veracidad: análisis de alucinaciones, optimización de RAG y principios para una integración responsable

IA_Juri_dica_y_el_desafi_o_de_la_veracidad (es)

Artículo redactado con asistencia de IA (Ref. APA: OpenAI. (2025). ChatGPT (versión 2025-09-26). OpenAI)

Autor

  • JAE
    Jose Escribano

    Responsable de Contenidos en Informativos.Net

    Ver todas las entradas
Alex Dantartalucinaciones IAderecho legalIAPDF
anterior
La mortalidad por cáncer de pulmón aumentará un 62% hacia 2050

También te puede interesar

Eduardo Manzano publica España Monumental, una historia del...

23 de septiembre de 2025

El Foro La Toja – Vínculo Atlántico celebra...

21 de septiembre de 2025

Investigada en Mallorca una conductora por circular 14...

21 de septiembre de 2025

Cataluña amplía su red exterior con nuevas delegaciones...

21 de septiembre de 2025

Detenido en Canarias “El Buque”, líder de una...

19 de septiembre de 2025

ICO Crecimiento, la primera herramienta 100% digital para...

5 de septiembre de 2025

El Gobierno abre una vía excepcional para incluir...

28 de agosto de 2025

El Banco de España facilita el canje de...

28 de agosto de 2025

Desarticulada una red criminal que traficaba migrantes desde...

27 de agosto de 2025

COLABORA CON NUESTRA FUNDACIÓN

https://t.me/informativosnet

Nos cuidan…


  • Facebook
  • Twitter
  • Instagram
  • Linkedin
  • Youtube
  • Email
  • Spotify
  • Whatsapp
  • Telegram
  • Rss

© 1999-2025 • Fundación Informativos.Net


Ir arriba
Informativos.Net
  • Inicio
  • Life Style Magazine
  • Editorial
  • Secciones
    • Actualidad
    • Cultura
    • Entrevistas
    • Fake News
    • Gastronomia-Vinos
    • LifeStyle & Destinos
    • Medio Ambiente y Renovables
    • Seguridad, Autoprotección y emergencias
    • Salud
  • Archivo
    • Otros Paises
    • Panorama Mundial
    • Música
    • Noticias Curiosas
    • Cine
    • Empresas
    • Motor
    • Opinión del Lector
    • Chile
    • Catalunya
    • Publi-Reportajes
    • Tecnología
    • Vela
  • Políticas IA
  • Autores
    • Gema Castellano
    • Jose Escribano
    • Abel Marín
    • Christian Correa
    • Dr. Francisco Jose Roig
    • Gustavo Egusquiza
    • Jesús Belenguer
    • Jose Anastasio Urra Urbieta
    • Pablo Arce
  • Sobre Gema Castellano
  • Autores y Redactores de Informativos.Net