El abogado Steven y las 19 sentencias que no existían

En los últimos años se ha documentado un caso que, por su carácter paradigmático, ha adquirido especial relevancia en el ámbito jurídico y ha servido como punto de inflexión en la percepción del uso de la inteligencia artificial en la práctica procesal.

Un letrado, con el objetivo de optimizar la preparación de su estrategia jurídica, recurrió a una herramienta de inteligencia artificial para fundamentar su posición ante un tribunal. Sobre la base de la información obtenida, incorporó en su escrito diversas referencias jurisprudenciales sin proceder a su verificación independiente.

El resultado fue determinante: las resoluciones citadas carecían de existencia real. La circunstancia fue advertida por el órgano judicial, lo que no solo afectó a la credibilidad del planteamiento jurídico, sino que tuvo un impacto directo en el devenir del procedimiento.

Este supuesto no constituye una hipótesis teórica ni un escenario meramente prospectivo. Se trata de un caso real, ampliamente documentado, que ha sido seguido por otros de naturaleza similar en distintas jurisdicciones. El patrón que subyace a estos incidentes presenta una reiteración significativa: la confianza en la respuesta generada por la inteligencia artificial, unida a la ausencia de verificación, desemboca en la incorporación de información errónea en contextos jurídicos formales.

Desde una perspectiva técnica, conviene precisar que estos sistemas no operan sobre la base de un conocimiento normativo estructurado, sino mediante la generación de texto probabilísticamente coherente. Esta característica explica que puedan producir respuestas con una elevada apariencia de rigor, incluyendo citas normativas o jurisprudenciales que, sin embargo, no tienen correlato en la realidad jurídica.

La cuestión central, por tanto, no radica en una eventual “intencionalidad” del sistema, sino en su incapacidad para identificar sus propios errores. La inteligencia artificial no dispone de mecanismos internos que le permitan advertir al usuario de la falta de correspondencia entre la información generada y el ordenamiento jurídico vigente.

En este contexto, la verificación humana adquiere una dimensión esencial. No se trata de una medida recomendable en términos generales, sino de un requisito inherente al cumplimiento del deber de diligencia profesional. La incorporación de contenidos no verificados en escritos procesales no solo compromete la solidez jurídica de la argumentación, sino que puede generar consecuencias procesales y reputacionales de alcance significativo.

En definitiva, la utilización de herramientas de inteligencia artificial en el ámbito jurídico exige una integración prudente y crítica en los flujos de trabajo. La diferencia entre un uso eficiente y un riesgo inasumible no reside en la tecnología empleada, sino en la existencia —o ausencia— de un proceso riguroso de validación.

Fuente: Lecciones del abogado que confió en Chat GPT sin contrastar la jurisprudencia – Abogacía Española

Siguiente
Siguiente

590 demandas con citas jurídicas falsas. Las inventó la IA.