
El sistema judicial español enfrenta un nuevo desafío: el uso de inteligencia artificial en documentos legales ha provocado la aparición de sentencias falsas en materiales oficiales. Este caso se ha convertido en una advertencia para todos los profesionales que emplean nuevas tecnologías en el ámbito jurídico. La resolución judicial no solo definió el destino de una abogada en particular, sino que también clarificó los límites de la responsabilidad al trabajar con IA.
En octubre de 2025, la abogada I.G. presentó un recurso en nombre de una empresa en la Sala de lo Social del Tribunal Superior de Justicia de Navarra. El escrito contenía fragmentos provenientes de supuestas resoluciones del Tribunal Constitucional, Tribunal Supremo, TSJ de Navarra y TSJ de Madrid. Sin embargo, los magistrados detectaron rápidamente que esas citas no coincidían con sentencias reales y que las fechas y números de casos tampoco correspondían con los registros oficiales. En realidad, se trataba de resoluciones completamente ficticias, generadas por inteligencia artificial.
Tras detectar las irregularidades, en febrero el tribunal abrió un expediente disciplinario por posible mala praxis. La ley contempla sanciones de entre 180 y 6.000 euros en estos casos, así como la opción de remitir el asunto al colegio profesional para sanciones adicionales. En la sentencia, el tribunal destacó que errores de este tipo no solo infringen los principios de buena fe, sino que también socavan el respeto al poder judicial y obstaculizan el trabajo de los magistrados.
Reacción y consecuencias
La abogada reconoció rápidamente su error, explicando que no hubo intención y que no verificó de forma suficiente el texto elaborado con ayuda de IA. En sus explicaciones, subrayó que renunciaba completamente a las citas polémicas, que no tenía intención de perjudicar al tribunal y pidió que se tuvieran en cuenta sus sinceras disculpas. Además, la letrada solicitó que, si el tribunal decidía imponer alguna medida, se limitara a una advertencia mínima.
Días después, la abogada envió una carta adicional donde volvió a expresar su pesar y destacó que este incidente fue una lección importante para ella. Pidió que sus acciones no se interpretaran como una falta de respeto o mala fe y solicitó el archivo de la causa disciplinaria. En caso contrario, consideró suficiente una advertencia verbal.
En la decisión final, redactada bajo la dirección de la jueza María José Ramo, el tribunal señaló que el uso de nuevas tecnologías y materiales generados por inteligencia artificial exige especial atención a los aspectos éticos y legales. La responsabilidad sobre la precisión y adecuación de los documentos sigue recayendo en los abogados, pese a la automatización de los procesos.
Tecnología y práctica jurídica
Un tribunal en Navarra citó estudios que demuestran que las llamadas ‘alucinaciones’ de la inteligencia artificial son un fenómeno frecuente en el ámbito jurídico. Los jueces subrayaron que el uso negligente de la IA puede acarrear graves consecuencias, incluidas acusaciones de mala fe y abuso del proceso. Las normas deontológicas exigen a los abogados verificar cuidadosamente toda la documentación presentada.
En este caso, los jueces decidieron no sancionar a la abogada, considerando su rápida reacción y reconocimiento del error. Sin embargo, la resolución enfatiza que este hecho debe servir de advertencia para todos los profesionales que utilicen IA sin la revisión adecuada. Incidentes similares podrían llevar a un endurecimiento del control sobre el uso de tecnología en los tribunales.
En España ya se están debatiendo nuevas vías para regular el uso de la inteligencia artificial en la práctica jurídica. Según RUSSPAIN.COM, estos casos son cada vez más frecuentes, lo que exige a la comunidad profesional desarrollar estándares y medidas de responsabilidad comunes.
Contexto y tendencias
En los últimos años, los tribunales españoles se enfrentan con mayor frecuencia a cuestiones relacionadas con la aplicación de nuevas tecnologías y la ética en la práctica jurídica. Por ejemplo, recientemente se analizó un caso en el que el tribunal rechazó levantar la restricción impuesta a un policía acusado de acoso, generando también debate sobre el equilibrio entre la protección de derechos y el respeto a los procedimientos (más detalles sobre el tema). Situaciones como esta demuestran que el sistema judicial de España se ve obligado a adaptarse a los nuevos retos relacionados con la digitalización y la automatización.
El aumento de casos en los que la inteligencia artificial genera datos erróneos para documentos legales está llevando a los tribunales y asociaciones profesionales a revisar sus reglamentos internos. Es fundamental destacar que, incluso sin intención maliciosa, la responsabilidad por el documento final recae en la persona, no en el programa. Este principio es esencial para todos los que trabajan con IA en el ámbito jurídico.
En los últimos años, en España ha crecido el número de expedientes disciplinarios vinculados a errores en el uso de herramientas digitales en los tribunales. En 2024 se debatió un caso donde un abogado presentó documentos con referencias incorrectas a normativas legales, lo que también generó una investigación interna. Paralelamente, en Europa crece el debate sobre la necesidad de crear estándares específicos para el uso de IA en la práctica jurídica. Estas tendencias reflejan la creciente atención a la responsabilidad y la transparencia en la era digital.












