590 demandas con citas jurídicas falsas. Las inventó la IA.
Diversos tribunales a nivel internacional han comenzado a detectar un fenómeno que, hasta hace poco, podía considerarse excepcional, pero que hoy presenta una dimensión cuantificable y creciente: la incorporación en procedimientos judiciales de referencias normativas y jurisprudenciales inexistentes, generadas por sistemas de inteligencia artificial.
Según datos difundidos por el medio Cinco Días, que recoge a su vez un estudio elaborado por Damien Charlotin, se han documentado al menos 590 resoluciones o escritos procesales en los que se han identificado citas jurídicas falsas atribuidas a herramientas de inteligencia artificial. Este dato, por su propia naturaleza, debe interpretarse como una estimación mínima, en la medida en que solo refleja los supuestos que han sido efectivamente detectados.
El análisis revela patrones especialmente preocupantes. Se han identificado centenares de casos en los que se invoca jurisprudencia completamente inexistente, así como un número significativo de situaciones en las que particulares han recurrido a sistemas de inteligencia artificial como si se tratara de un asesoramiento jurídico sustitutivo. De forma particularmente llamativa, se han documentado incluso supuestos en los que órganos judiciales han incorporado en sus resoluciones referencias a precedentes que carecen de existencia real.
En el ámbito español, los datos disponibles apuntan a tasas elevadas de generación de respuestas jurídicas incorrectas o directamente inexistentes por parte de sistemas de inteligencia artificial, lo que refuerza la necesidad de extremar las cautelas en su utilización.
Desde una perspectiva jurídica, este fenómeno no puede analizarse exclusivamente como una limitación técnica. La cuestión central radica en el uso que se hace de estas herramientas. La inteligencia artificial no constituye una fuente autónoma de Derecho ni un sustituto del razonamiento jurídico. Su utilización sin un proceso de verificación y validación adecuado introduce un riesgo cierto de error material en decisiones que, por su propia naturaleza, pueden tener consecuencias jurídicas relevantes.
Los ámbitos afectados no son marginales. La toma de decisiones basada en información no verificada puede incidir directamente en cuestiones tales como la determinación de derechos económicos, la formalización de relaciones contractuales, la interposición de acciones judiciales o la gestión de situaciones laborales. En todos estos supuestos, el margen de error admisible es, por definición, limitado.
En este contexto, adquiere especial relevancia la incorporación de mecanismos de control que permitan validar la fiabilidad de la información generada por sistemas de inteligencia artificial antes de su utilización efectiva. La intervención de profesionales cualificados no constituye un elemento accesorio, sino un requisito necesario para garantizar la seguridad jurídica.
En definitiva, la problemática de las denominadas “alucinaciones jurídicas” no reside únicamente en su existencia, sino en la confianza que se deposita en ellas cuando se integran en procesos decisorios sin la debida verificación. La tecnología, en sí misma, no desplaza los estándares de diligencia exigibles. Antes bien, refuerza la necesidad de aplicarlos con mayor rigor.
En este marco, el desarrollo de soluciones que integren inteligencia artificial con procesos de validación jurídica especializada se configura como una vía adecuada para compatibilizar eficiencia operativa y seguridad jurídica, evitando que los beneficios de la automatización se traduzcan en riesgos inasumibles.