Inteligencia Artificial (IA)
Conflicto por alucinaciones de IA en documentos judiciales desata debate legal
Paloma Firgaira
2026-05-04
5 min read
El auge de la inteligencia artificial en el ámbito legal está generando desafíos inéditos para abogados y firmas. Recientemente, varios letrados han comenzado a revelar públicamente los nombres de los programas de IA que utilizan, tras verse envueltos en polémicas por errores en documentos judiciales.
Hace unas semanas, Ross LeBlanc, socio del bufete Dudley DeBosier en Luisiana, se disculpó ante el juez William Jorden por presentar escritos que, aunque citaban una sentencia real, incluían fragmentos inexistentes. LeBlanc explicó que había empezado a usar el software de IA Eve para redactar alegatos y, tras comprobar su precisión inicial, dejó de revisar exhaustivamente las citas. “Nunca pensé que esto me podría pasar a mí”, admitió en una carta privada al juez.
Jay Madheswaranm, CEO de Eve, aseguró a Business Insider que, tras una auditoría interna, confirmaron que su software no generó citas falsas en este caso. Sin embargo, la situación ha puesto en el foco la responsabilidad compartida entre abogados y desarrolladores de IA. Los tribunales han sancionado a profesionales por presentar documentos con “alucinaciones” de IA, y firmas de prestigio como Sullivan & Cromwell también han tenido que disculparse por errores similares.
La transparencia sobre el uso de IA es limitada: según el investigador Damien Charlotin, menos del 10% de los casos identifican el software empleado. Muchos abogados prefieren no revelar si utilizan herramientas como ChatGPT o Claude, de Anthropic, que también ha sido protagonista de errores en documentos legales.
Eve, valorada en mil millones de dólares tras una reciente ronda de financiación, procesa más de 200.000 documentos mensuales y promete salvaguardas para evitar errores. No obstante, la confianza en estas herramientas se ve amenazada cuando los fallos salen a la luz, como ocurrió en un caso reciente relacionado con una caída en una tienda Lowe’s, donde se detectaron nuevas “alucinaciones” en escritos legales.
Dudley DeBosier sostiene que los abogados deben revisar cuidadosamente los resultados generados por IA y asumir la responsabilidad final del contenido presentado. LeBlanc, por su parte, reconoce que la presión por la eficiencia le llevó a confiar demasiado en la tecnología y espera que su experiencia sirva de advertencia a otros profesionales. Aunque no culpa a Eve, ha decidido dejar de usar la herramienta temporalmente: “Es justo tener un período de enfriamiento”, concluyó.
Fuente: businessinsider.es