Conflicto por alucinaciones de IA en documentos judiciales desata debate legal
    Inteligencia Artificial (IA)

    Conflicto por alucinaciones de IA en documentos judiciales desata debate legal

    Paloma Firgaira
    2026-05-04
    5 min read
    El auge de la inteligencia artificial en el ámbito legal está generando desafíos inéditos para abogados y firmas. Recientemente, varios letrados han comenzado a revelar públicamente los nombres de los programas de IA que utilizan, tras verse envueltos en polémicas por errores en documentos judiciales. Hace unas semanas, Ross LeBlanc, socio del bufete Dudley DeBosier en Luisiana, se disculpó ante el juez William Jorden por presentar escritos que, aunque citaban una sentencia real, incluían fragmentos inexistentes. LeBlanc explicó que había empezado a usar el software de IA Eve para redactar alegatos y, tras comprobar su precisión inicial, dejó de revisar exhaustivamente las citas. “Nunca pensé que esto me podría pasar a mí”, admitió en una carta privada al juez. Jay Madheswaranm, CEO de Eve, aseguró a Business Insider que, tras una auditoría interna, confirmaron que su software no generó citas falsas en este caso. Sin embargo, la situación ha puesto en el foco la responsabilidad compartida entre abogados y desarrolladores de IA. Los tribunales han sancionado a profesionales por presentar documentos con “alucinaciones” de IA, y firmas de prestigio como Sullivan & Cromwell también han tenido que disculparse por errores similares. La transparencia sobre el uso de IA es limitada: según el investigador Damien Charlotin, menos del 10% de los casos identifican el software empleado. Muchos abogados prefieren no revelar si utilizan herramientas como ChatGPT o Claude, de Anthropic, que también ha sido protagonista de errores en documentos legales. Eve, valorada en mil millones de dólares tras una reciente ronda de financiación, procesa más de 200.000 documentos mensuales y promete salvaguardas para evitar errores. No obstante, la confianza en estas herramientas se ve amenazada cuando los fallos salen a la luz, como ocurrió en un caso reciente relacionado con una caída en una tienda Lowe’s, donde se detectaron nuevas “alucinaciones” en escritos legales. Dudley DeBosier sostiene que los abogados deben revisar cuidadosamente los resultados generados por IA y asumir la responsabilidad final del contenido presentado. LeBlanc, por su parte, reconoce que la presión por la eficiencia le llevó a confiar demasiado en la tecnología y espera que su experiencia sirva de advertencia a otros profesionales. Aunque no culpa a Eve, ha decidido dejar de usar la herramienta temporalmente: “Es justo tener un período de enfriamiento”, concluyó. Fuente: businessinsider.es
    Paloma Firgaira

    Paloma Firgaira

    CEO

    Con más de 20 años de experiencia, Paloma es una ejecutiva flexible y ágil que sobresale implementando estrategias adaptadas a cada situación. Su MBA en Administración de Empresas y experiencia como Experta en IA y Automatización fortalecen su liderazgo y pensamiento estratégico. Su eficiencia en la planificación de tareas y rápida adaptación al cambio contribuyen positivamente a su trabajo. Con sólidas habilidades de liderazgo e interpersonales, tiene un historial comprobado en gestión financiera, planificación estratégica y desarrollo de equipos.

    Artículos Recientes