Inteligencia Artificial (IA)
Impacto de las "alucinaciones" de la IA en el sector jurídico: desafíos y riesgos actuales
Paloma Firgaira
2026-01-31
5 min read
La inteligencia artificial (IA) se ha consolidado como una herramienta fundamental en numerosos sectores, incluido el jurídico. Sin embargo, su uso inadecuado ha generado situaciones preocupantes, especialmente cuando se emplea para elaborar documentos legales sin la debida supervisión. En los últimos tiempos, se han detectado varios casos en los que la IA ha generado jurisprudencia inexistente, lo que ha provocado serios problemas en procedimientos judiciales.
Un ejemplo reciente ocurrió en Canarias, donde la Sala de lo Penal del Tribunal Superior de Justicia de Canarias (TSJC) investiga a un abogado por presentar un recurso que citaba jurisprudencia y documentos oficiales supuestamente generados por IA, pero que resultaron ser falsos. El tribunal sospecha que el letrado confió en exceso en la información proporcionada por la herramienta, sin verificar su autenticidad, lo que ha llevado a la apertura de una investigación que podría derivar en sanciones disciplinarias.
Este no es un caso aislado. En septiembre de 2024, el Tribunal Superior de Justicia de Navarra abrió una investigación a un abogado que, al presentar una querella, citó erróneamente un artículo del código penal colombiano creyendo que era del español, debido a una referencia incorrecta generada por ChatGPT y no revisada por el profesional. Aunque el caso no terminó en sanción, evidenció los riesgos de confiar ciegamente en la IA.
Según Carlota Planas, abogada experta en nuevas tecnologías, el uso de IA en el ámbito legal se ha extendido tanto que ya existen herramientas especializadas desarrolladas por editoriales jurídicas como Aranzadi, Lefebvre o vLex. Sin embargo, la IA sigue cometiendo errores, conocidos como "alucinaciones", que consisten en generar información aparentemente veraz pero sin base real, como explica Concepción Campos, asesora del Consejo General de la Abogacía Española (CGAE).
En el sector jurídico, estas "alucinaciones" pueden traducirse en la invención de sentencias, citas doctrinales o interpretaciones legales inexistentes. Campos señala que la falta de formación digital en el sector agrava el problema, ya que solo quienes conocen las limitaciones de la IA pueden establecer protocolos de verificación y distinguir qué tareas requieren intervención humana.
Ramon Àngel Casanova, miembro de la junta de Gobierno del Ilustre Colegio de Abogados de Barcelona (ICAB), subraya que los errores suelen producirse por la ausencia de supervisión humana. Miguel Hermosa, presidente de la subcomisión de justicia digital del CGAE, recuerda que la responsabilidad recae siempre en el abogado, no en la IA, y que la supervisión profesional es imprescindible para evitar riesgos.
El Tribunal Superior de Justicia de Navarra y el Consejo de la Abogacía Europea (CCBE) insisten en la necesidad de que los abogados verifiquen cualquier resultado generado por IA antes de utilizarlo, comprendiendo tanto sus capacidades como sus limitaciones. El CCBE, en una guía publicada en octubre de 2025, recalca la importancia de entender los riesgos asociados al uso de estas tecnologías.
El mal uso de la IA en el ámbito legal no es exclusivo de España; en Estados Unidos también se han registrado numerosos casos. Aunque en el ICAB aún no se han recibido quejas formales, sus responsables consideran que es solo cuestión de tiempo. Fuente: lavanguardia.com